《模糊控制第五章精选文档.ppt》由会员分享,可在线阅读,更多相关《模糊控制第五章精选文档.ppt(72页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、模糊控制第五章本讲稿第一页,共七十二页n神经元是以生物神经系统的神经细胞为基础的生物模型,在人们对生物神经系统进行研究和探讨人工智能的机制时,把神经原数学化,从而产生了神经元数学模型。n神经网络模型是一个高度非线性动力学系统,具有并行分布处理、存储及学习能力、高度鲁棒性和容错能力,能充分逼近复杂的非线性关系。因此,用神经网络可以表达物理世界的各种复杂现象。本讲稿第二页,共七十二页5.1 5.1 神经网络神经网络5.1.1人工神经网络的起源和发展n不同学科的科学家不断地对人脑的研究和互相影响,渐渐形成了神经网络学科。n1943年心理学家McCulloch和数学家Pitts合作,提出了第一个神经网
2、络MP模型。本讲稿第三页,共七十二页n1949年,心理学家Hebb通过对大脑神经细胞学习和条件反射的观察研究,提出了改变神经元连接强度的Hebb规则。n1957年,Rosenblatt提出了感知器Perceptron模型,试图模拟人脑的感知学习能力,并提出了引入隐层处理单元的三层感知器的概念。n1960年,Widrow和Hoff提出了自适应线性元件Adaline模型及一种有效的学习方法Widrow-Hoff规则。本讲稿第四页,共七十二页n神经网络从仿生学角度模拟人脑神经系统的运作方式,使机器具有人脑那样的感知、学习和推理能力。n1982年,美国加州工学院的物理学家Hopfield教授提出了HN
3、N模型,使神经网络的研究有了突破性的进展。n它通过引入“能量函数”的概念,给出了网络的稳定性判据。n此外,HNN的电子电路实现为神经计算机研究点定了基础,同时,开拓了神经网络用于联想记忆和优化计算的新途径。本讲稿第五页,共七十二页nFeldman和Boltzmann提出了连接网络模型,指出了传统的人工智能“计算”和生物“计算”的不同点,给出了并行分布计算的处理原则;nHinton和Sejnowskii借助统计物理学的概念和方法,提出了Boltzmann机神经网络模型,并采用模拟退火技术模拟退火技术进行网络的训练,保证了整个网络系统处于全局稳定点。本讲稿第六页,共七十二页n模拟退火算法来源于固体
4、退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。本讲稿第七页,共七十二页n用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对当前解重复“产生新解计算目标函数差接受或舍弃”的迭代,并逐步衰减t值,算法终止时的当前解即为所得近似最优解,这是基于蒙特卡罗迭代求解法的一种启发式随机搜索过程。本讲稿第八页,共七十二页n模拟退火算法是解决TSP问题的有效方法之一。n旅行商问题,
5、即TSP问题(Travelling Salesman Problem)是数学领域中著名问题之一。假设有一个旅行商人要拜访n个城市,他必须选择所要走的路径,路经的限制是每个城市只能拜访一次,而且最后要回到原来出发的城市。路径的选择目标是要求得的路径路程为所有路径之中的最小值。本讲稿第九页,共七十二页TSP问题的示意图本讲稿第十页,共七十二页n一个最容易想到的方法排列组合把所有的路径,并逐一比较,选出最小的路径。n该方法理论上可行,但路径的个数与城市的个数成指数增长,当城市个数较大时,该方法的求解时间甚至是不可能完成的。n以每秒1亿次的计算速度来估算,如果TSP问题包含20个城市时,求解时间长达3
6、50年;如果要处理30个城市,则求解时间更长达1+10e16年。本讲稿第十一页,共七十二页n求解TSP的模拟退火算法模型可描述如下:n解空间:遍访每个城市恰好一次的所有路径;n目标函数:访问所有城市的路径总长度;n最优路径为目标函数为最小值时对应的路径。n新路径的产生:随机产生1和n之间的两相异数k和m,不妨假设km,则将原路径(w1,w2,wk,wk+1,wm,wm+1,wn)变为新路径:(w1,w2,wm,wk+1,wk,wm+1,wn)本讲稿第十二页,共七十二页nRumelhart和McClelland以及它们领导的PDP小组致力于认知微观结构的探索,提出了PDP(ParallelDis
7、tribatedProcessing)理论,同时发展了多层网络的BP学习算法,将神经网络的研究推向了高潮。nPDP模式是一种认知心理的平行分布式模式,接近人类思维推论模式。人脑中知识的表达采用分布式表达结构,人脑的控制实行分布式的控制方式。相互作用、相互限制是PDP模式的基本思想,平行分布是PDP模式的基本构架。本讲稿第十三页,共七十二页n这一时期,随着大量开拓性研究工作的深入,研究者们提出了数十种网络结构和学习算法,硬件实现的研究工作也在积极开展。n20世纪90年代以来,神经网络的研究进入了一个空前高涨时期,多数研究集中在网络结构、学习算法和实际应用三个方面,已经广泛地应用于控制领域,尤其是
8、非线性系统领域。神经网络在系统中的应用主要是用作神经网络建模和神经网络控制。本讲稿第十四页,共七十二页5.1.2 5.1.2 神经元和神经网络神经元和神经网络(1)神经元模型1)生物神经元模型n神经元是以生物神经系统的神经细胞为基础的生物模型,是生物神经系统的最基本单元,其生物学解剖结构如图5.1所示。本讲稿第十五页,共七十二页图5.1 生物神经元模型神经元中心神经元信息入口信息出口本讲稿第十六页,共七十二页2)人工神经元模型n神经元模型是模拟生物神经元的结构和功能的数学化模型,一般是一个多输入单输出的信息处理单元。n典型人工神经元模型如图5.2所示。本讲稿第十七页,共七十二页图5.2 人工神
9、经元模型输入权系数激发函数输出阀值本讲稿第十八页,共七十二页n该神经元的数学模型表达式为:n对于激发函数f()有多种形式,其中常用的有如下3种:本讲稿第十九页,共七十二页本讲稿第二十页,共七十二页图5.3 常用激发函数本讲稿第二十一页,共七十二页(2)人工神经网络n人工神经网络是生物神经网络的一种模拟近似。以下介绍几种典型的人工神经网络及其在模糊控制方面的应用。1)神经网络模型n通常可以按以下5个原则进行神经网络归类:n按网络结构区分,有前向网络和反馈网络;本讲稿第二十二页,共七十二页n按照学习方式区分,有教师学习和无教师学习网络。n按照网络性能区分,有连续型和离散型网络,随机型和确定型网络。
10、n按照突触性质区分,有一阶线性关联网络和高阶非线性关联网络。n按对生物神经系统的层次模拟区分,有神经元层次模型、组合式模型、网络层次模型、神经系统层次模型和智能型模型。本讲稿第二十三页,共七十二页图5.4 神经网络结构示意图前向网络反馈网络相互结合型网络混合型网络本讲稿第二十四页,共七十二页前向网络n神经元分层排列,组成输输入入层层、隐隐含含层层和输输出出层层。每一层的神经元只接收前一层神经元的输入。输入模式经过各层的顺序变换后,在输出层输出。n各神经元之间不存在反馈。感知器和误差反向传播算法中使用的网络都属于这种类型。本讲稿第二十五页,共七十二页反馈网络n在前向网络的基础上,存在输出层到输入
11、层神经元之间的反馈。n这种模式可用来存储某种模式序列,如神经认知机或Hopfield网络,也可以用于动态时间序列过程的网络建模。本讲稿第二十六页,共七十二页相互结合型网络n属于网状结构。这种神经网络在任意两个神经元之间都可能有连接。nHNN或Boltzman机都属于这一类型,信号将在神经元之间反复往返传递,网络出于一种不断改变的动态中。从某初态开始,经过若干此变化达到某种平衡,也有可能进入周期振荡或其他平衡状态。本讲稿第二十七页,共七十二页混合型网络n层次型网络和网状型网络的一种结合。通过层内神经元相互结合,可实现同一层内神经元之间的横向抑制或兴奋作用。n这样可以限制每层内能同时动作的神经元数
12、,或者把层内的神经元分为若干组,让每组作为一个整体来动作。本讲稿第二十八页,共七十二页2)神经网络学习算法n学习的过程实质上是针对一组给定输入,使网络产生相应的输出的过程。n神经网络学习算法分为两大类:有教师学习和无教师学习。n有教师学习是指在神经网络训练过程中,始终存在一个期望的网络输出,期望输出与实际输出之间的距离作为误差度量并用于调节网络连接权系数。本讲稿第二十九页,共七十二页n无教师学习指的是网络不存在一个期望的输出值,因而没有直接的误差信息,因此为实现对神经网络的训练,要建立一个间接评价函数,以对网络的某种行为趋向作出评价。本讲稿第三十页,共七十二页5.1.3 5.1.3 人工神经网
13、络的特点及类型人工神经网络的特点及类型(1)人工神经网络的特点1)非线性2)非局域性n这是人类神经系统的一个特性,人的整体行为是非局域性的最明显体现。神经网络以大量神经元连接模拟人脑的非局域性,它的分布存储是非局域性的一种体现。本讲稿第三十一页,共七十二页3)非定常性n神经网络是模拟人脑思维运动的动力学系统,它应按不同时刻的外界刺激对自己的功能进行修改,因此是一个时变系统。4)非凸性n神经网络的非凸性是指它有多个极值,也即系统具有不只一个平衡状态。这会使系统的变化多样化,神经网络的全局优化算法就反映了这一点。本讲稿第三十二页,共七十二页5)具有泛化功能n能够处理未经训练的数据,并获得相应于这些
14、数据的合适解答。同样,能够处理有噪声或不完全的数据。具有很好的容错能力。6)具有自适应功能n根据所提供的数据,通过学习和训练,找出和输出之间的内在联系,从而得到问题的解答。本讲稿第三十三页,共七十二页7)高度并行处理n神经网络的处理是高度并行的,因此,用硬件实现的神经网络的处理速度,可远远高于通常计算机的处理速度。本讲稿第三十四页,共七十二页(2)人工神经网络的类型nHopfield网络,最典型的反馈网络模型,是目前人们研究最多的模型之一。它由相同的神经元构成,并且是不具学习功能的自联想网络,需要对称连接。这个网络可完成制约优化和联想记忆等功能。nBP网络,反向传播网络。是多层前向网络,采用最
15、小均方差学习方式,需要教师训练。用途广泛,如语言综合、识别和自适应控制等。本讲稿第三十五页,共七十二页nBlotzman机是典型的随机网络模型。它的单元具有二值状态,神经元的连接是双向的,且具有概率状态转移机制。它允许含隐单元来获取学习中的高阶规则。主要用于模式识别。Blotzman机训练时间长,并有噪声。nART网络是一种自组织网络模型,是无教师学习网络。它能较好地协调适应性、稳定性和复杂性的要求。在ART网络中,通常需要两个功能互补的子系统相互作用。该网络主要用于模式识别,其不足之处在于对转换失真和规模变化敏感。本讲稿第三十六页,共七十二页(1)Hopfield网络1)离散型Hopfiel
16、d网络2)连续型Hopfield网络(2)BP多层神经网络函数逼近模式识别分类数据压缩5.1.4典型的人工神经网络本讲稿第三十七页,共七十二页图5.5 多层网络及BP算法本讲稿第三十八页,共七十二页n1)BP算法的原理n设有一个m层的神经网络,并在输入层加有样本X,设第k层的i神经元的输入总和表示为、输出;从第k-1层的第j 个神经元到第k层的第i个神经元的权系数为ij,各个神经元的激发函数为f,则各个变量的关系可用下面有关的数学式表示:(5.1)(5.2)本讲稿第三十九页,共七十二页n正向传播n反向传播n2)BP算法的数学表达n多层网络的训练方法是把一个样本加到输入层,并根据向前传播的规则:
17、(5.3)(5.4)本讲稿第四十页,共七十二页n把和期望输出yj进行比较,如果两者不等,则产生误差信号e,接着则按下面的公式反向传播修改权系数:n3)BP算法的执行步骤n对权系数ij置初值(5.5)(5.6)本讲稿第四十一页,共七十二页n输入一个样本X=(x1,x2,xn,1)以及对应期望输出Y=(y1,y2,yn)。n计算各层的输出(5.7)(5.8)本讲稿第四十二页,共七十二页(5.9)(5.10)(5.11)(5.12)本讲稿第四十三页,共七十二页n当求出了各层各个权系数之后,可按给定品质指标判别是否满足要求。如果满足要求,则算法结束;如果未满足要求,则返回执行。n4)BP网络的设计n设
18、计BP网络时,一般应从以下几方面考虑:n网络的层数n隐层的神经元数n初始权值的选取n学习速率本讲稿第四十四页,共七十二页n期望误差的选取n5.2模糊神经网络n5.2.1神经网络与模糊逻辑n5.2.2模糊神经网络n(1)模糊神经网络的结构n神经元的激发函数是神经元输入函数响应f的函数,即(5.13)本讲稿第四十五页,共七十二页图5.6 模糊神经网络的结构图本讲稿第四十六页,共七十二页n为了满足模糊控制的要求,对每一层的神经元函数应有不同的定义:n第一层,这一层的节点只是将输入变量值直接传送到下一层。所以n本讲稿第四十七页,共七十二页n第二层,如果采用一个神经元节点来实现语言值的隶属度函数变换,则
19、这个节点的输出就可以定义为隶属度函数的输出,如钟型函数就是一个很好的隶属度函数。n第三层,这一层的功能是完成模糊逻辑推理条件部的匹配工作。因此,由最大、最小推理规则可知,规则节点实现的功能是模糊“与”运算,即本讲稿第四十八页,共七十二页n第四层,在这一层上的节点有两种操作模式:一种是实现信号从上到下的传输模式;另一种是实现信号从下到上的传输模式。本讲稿第四十九页,共七十二页n第五层,在这一层中有两类节点:一类节点执行从上到下的信号传输方式,实现了把训练数据反馈到神经网络中去的目的,对于这类节点,其神经元节点函数定义为:n下列函数可以用来模拟重心法的解模糊运算:本讲稿第五十页,共七十二页n(2)
20、模糊神经网络的学习方法n为此必须首先确定和提供:n初始模糊神经网络结构;n输入、输出样本训练数据;n输入、输出语言变量的模糊分区(如每一输入输出变量语言值的多少等)。n1)自组织学习阶段nKohonen自组织学习算法计算隶属度函数中心值mi的公式为:本讲稿第五十一页,共七十二页n此语言变量语言值所对应的宽度i的计算通过下列目标函数的极小值来获取的,即(5.14)(5.15)(5.16)本讲稿第五十二页,共七十二页n自组织学习法只是找到语言变量的初始分类估计值,一般采用一阶最近邻域法求取:(5.18)(5.18)(5.17)(5.19)本讲稿第五十三页,共七十二页n为了简化神经网络的结构,可以再
21、通过规则结合的办法来减少系统总的规则数,如果:n该组节点具有完全相同的结论部;n在该组规则节点中某些条件部是相同的;n该组规则节点的其他条件输入项包含了所有其他输入语言变量的某一语言值节点的输出。n2)有教师指导下的学习阶段本讲稿第五十四页,共七十二页图5.7 规则节点合并示例本讲稿第五十五页,共七十二页(5.20)(5.21)(5.22)本讲稿第五十六页,共七十二页(5.23)(5.24)本讲稿第五十七页,共七十二页n系统输出误差反向传播到上一层的广义误差(5)为:n(5.25)本讲稿第五十八页,共七十二页nn如果输出语言变量有m个,则(5.28)(5.26)(5.27)本讲稿第五十九页,共
22、七十二页n第二层输入语言变量各语言值隶属度函数中心值的学习公式为:n输入语言变量各语言值隶属度函数宽度值的学习公式为:(5.29)本讲稿第六十页,共七十二页图5.8 模糊神经网络混合学习的流程图本讲稿第六十一页,共七十二页n5.3基于神经网络的模糊控制器n5.3.1复合型神经模糊控制器n(1)神经网络1n1)预处理(5.30)本讲稿第六十二页,共七十二页图5.9 系统结构本讲稿第六十三页,共七十二页n2)完成的功能n神经网络1根据对波形的分类,向判断机构1发送以下不同命令:n对A类波形:再次构造控制规则;n对B类波形:大幅度减小控制量;n对C类波形:减小一点控制量;n对D类波形:增加一点控制量
23、;n对E类波形:大幅度减小控制量;n对F类波形:大幅度增加控制量;n对G类波形:增加波形分类。本讲稿第六十四页,共七十二页n(2)神经网络2n1)预处理n2)完成的功能n(3)判断机构1n(4)判断机构2n(5)模糊控制器控制规则的构成步骤n用判断机构1确定最初的控制输入n发散波形处理n收敛波形处理本讲稿第六十五页,共七十二页n当控制对象输出波形的各个取样时刻tith时,判断机构2检测它们与目标值的偏差Ei及其变化量Ei,根据这些值决定以下各个量:n决定控制规则后件模糊变量隶属函数的规格化常数n根据规则前件求后件n根据波形分类分别处理本讲稿第六十六页,共七十二页n生成最初的控制规则n当取样时刻
24、tith时,其步骤为:nA.找出EiZE时与目标值的偏差Ei,从这些Ei中再找出最大的Ej,向判断机构2发送指令,以便构成对应于这一取样时刻j 输出波形状态的控制规则。nB.找出EiZE时的Ei,从这些Ei中找出最大的Ej,向判断机构2发送指令,以便构成对应于这一取样时刻j 输出波形状态的控制规则。本讲稿第六十七页,共七十二页n在按步骤构成规则时,前件的偏差Ei及其变化量Ei的模糊变量的标称都为零,所以,只要决定了其中一个就决定了前件。图5.10 融合型神经模糊控制器本讲稿第六十八页,共七十二页n反复进行步骤的操作,直到没有步骤的情况为止。n5.3.2融合型神经模糊控制器n5.3.3模糊神经网络在倒立摆控制中的应用n考虑摩擦时倒立摆的运动方程可由如下非线性微分方程描述:本讲稿第六十九页,共七十二页图5.11 倒立摆示意图本讲稿第七十页,共七十二页本讲稿第七十一页,共七十二页n本讲稿第七十二页,共七十二页