《模糊控制第五章精选PPT.ppt》由会员分享,可在线阅读,更多相关《模糊控制第五章精选PPT.ppt(72页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、模糊控制第五章第1页,此课件共72页哦n神经元是以生物神经系统的神经细胞为基础的生物模型,在人们对生物神经系统进行研究和探讨人工智能的机制时,把神经原数学化,从而产生了神经元数学模型。n神经网络模型是一个高度非线性动力学系统,具有并行分布处理、存储及学习能力、高度鲁棒性和容错能力,能充分逼近复杂的非线性关系。因此,用神经网络可以表达物理世界的各种复杂现象。第2页,此课件共72页哦5.1 5.1 神经网络神经网络5.1.1人工神经网络的起源和发展n不同学科的科学家不断地对人脑的研究和互相影响,渐渐形成了神经网络学科。n1943年心理学家McCulloch和数学家Pitts合作,提出了第一个神经网
2、络MP模型。第3页,此课件共72页哦n1949年,心理学家Hebb通过对大脑神经细胞学习和条件反射的观察研究,提出了改变神经元连接强度的Hebb规则。n1957年,Rosenblatt提出了感知器Perceptron模型,试图模拟人脑的感知学习能力,并提出了引入隐层处理单元的三层感知器的概念。n1960年,Widrow和Hoff提出了自适应线性元件Adaline模型及一种有效的学习方法Widrow-Hoff规则。第4页,此课件共72页哦n神经网络从仿生学角度模拟人脑神经系统的运作方式,使机器具有人脑那样的感知、学习和推理能力。n1982年,美国加州工学院的物理学家Hopfield教授提出了HN
3、N模型,使神经网络的研究有了突破性的进展。n它通过引入“能量函数”的概念,给出了网络的稳定性判据。n此外,HNN的电子电路实现为神经计算机研究点定了基础,同时,开拓了神经网络用于联想记忆和优化计算的新途径。第5页,此课件共72页哦nFeldman和Boltzmann提出了连接网络模型,指出了传统的人工智能“计算”和生物“计算”的不同点,给出了并行分布计算的处理原则;nHinton和Sejnowskii借助统计物理学的概念和方法,提出了Boltzmann机神经网络模型,并采用模拟退火技术模拟退火技术进行网络的训练,保证了整个网络系统处于全局稳定点。第6页,此课件共72页哦n模拟退火算法来源于固体
4、退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。第7页,此课件共72页哦n用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对当前解重复“产生新解计算目标函数差接受或舍弃”的迭代,并逐步衰减t值,算法终止时的当前解即为所得近似最优解,这是基于蒙特卡罗迭代求解法的一种启发式随机搜索过程。第8页,此课件共72页哦n模拟退火算法是解决TSP问题的有效方法之一。n旅行商问题,
5、即TSP问题(Travelling Salesman Problem)是数学领域中著名问题之一。假设有一个旅行商人要拜访n个城市,他必须选择所要走的路径,路经的限制是每个城市只能拜访一次,而且最后要回到原来出发的城市。路径的选择目标是要求得的路径路程为所有路径之中的最小值。第9页,此课件共72页哦TSP问题的示意图第10页,此课件共72页哦n一个最容易想到的方法排列组合把所有的路径,并逐一比较,选出最小的路径。n该方法理论上可行,但路径的个数与城市的个数成指数增长,当城市个数较大时,该方法的求解时间甚至是不可能完成的。n以每秒1亿次的计算速度来估算,如果TSP问题包含20个城市时,求解时间长达
6、350年;如果要处理30个城市,则求解时间更长达1+10e16年。第11页,此课件共72页哦n求解TSP的模拟退火算法模型可描述如下:n解空间:遍访每个城市恰好一次的所有路径;n目标函数:访问所有城市的路径总长度;n最优路径为目标函数为最小值时对应的路径。n新路径的产生:随机产生1和n之间的两相异数k和m,不妨假设km,则将原路径(w1,w2,wk,wk+1,wm,wm+1,wn)变为新路径:(w1,w2,wm,wk+1,wk,wm+1,wn)第12页,此课件共72页哦nRumelhart和McClelland以及它们领导的PDP小组致力于认知微观结构的探索,提出了PDP(ParallelDi
7、stribatedProcessing)理论,同时发展了多层网络的BP学习算法,将神经网络的研究推向了高潮。nPDP模式是一种认知心理的平行分布式模式,接近人类思维推论模式。人脑中知识的表达采用分布式表达结构,人脑的控制实行分布式的控制方式。相互作用、相互限制是PDP模式的基本思想,平行分布是PDP模式的基本构架。第13页,此课件共72页哦n这一时期,随着大量开拓性研究工作的深入,研究者们提出了数十种网络结构和学习算法,硬件实现的研究工作也在积极开展。n20世纪90年代以来,神经网络的研究进入了一个空前高涨时期,多数研究集中在网络结构、学习算法和实际应用三个方面,已经广泛地应用于控制领域,尤其
8、是非线性系统领域。神经网络在系统中的应用主要是用作神经网络建模和神经网络控制。第14页,此课件共72页哦5.1.2 5.1.2 神经元和神经网络神经元和神经网络(1)神经元模型1)生物神经元模型n神经元是以生物神经系统的神经细胞为基础的生物模型,是生物神经系统的最基本单元,其生物学解剖结构如图5.1所示。第15页,此课件共72页哦图5.1 生物神经元模型神经元中心神经元信息入口信息出口第16页,此课件共72页哦2)人工神经元模型n神经元模型是模拟生物神经元的结构和功能的数学化模型,一般是一个多输入单输出的信息处理单元。n典型人工神经元模型如图5.2所示。第17页,此课件共72页哦图5.2 人工
9、神经元模型输入权系数激发函数输出阀值第18页,此课件共72页哦n该神经元的数学模型表达式为:n对于激发函数f()有多种形式,其中常用的有如下3种:第19页,此课件共72页哦第20页,此课件共72页哦图5.3 常用激发函数第21页,此课件共72页哦(2)人工神经网络n人工神经网络是生物神经网络的一种模拟近似。以下介绍几种典型的人工神经网络及其在模糊控制方面的应用。1)神经网络模型n通常可以按以下5个原则进行神经网络归类:n按网络结构区分,有前向网络和反馈网络;第22页,此课件共72页哦n按照学习方式区分,有教师学习和无教师学习网络。n按照网络性能区分,有连续型和离散型网络,随机型和确定型网络。n
10、按照突触性质区分,有一阶线性关联网络和高阶非线性关联网络。n按对生物神经系统的层次模拟区分,有神经元层次模型、组合式模型、网络层次模型、神经系统层次模型和智能型模型。第23页,此课件共72页哦图5.4 神经网络结构示意图前向网络反馈网络相互结合型网络混合型网络第24页,此课件共72页哦前向网络n神经元分层排列,组成输输入入层层、隐隐含含层层和输输出出层层。每一层的神经元只接收前一层神经元的输入。输入模式经过各层的顺序变换后,在输出层输出。n各神经元之间不存在反馈。感知器和误差反向传播算法中使用的网络都属于这种类型。第25页,此课件共72页哦反馈网络n在前向网络的基础上,存在输出层到输入层神经元
11、之间的反馈。n这种模式可用来存储某种模式序列,如神经认知机或Hopfield网络,也可以用于动态时间序列过程的网络建模。第26页,此课件共72页哦相互结合型网络n属于网状结构。这种神经网络在任意两个神经元之间都可能有连接。nHNN或Boltzman机都属于这一类型,信号将在神经元之间反复往返传递,网络出于一种不断改变的动态中。从某初态开始,经过若干此变化达到某种平衡,也有可能进入周期振荡或其他平衡状态。第27页,此课件共72页哦混合型网络n层次型网络和网状型网络的一种结合。通过层内神经元相互结合,可实现同一层内神经元之间的横向抑制或兴奋作用。n这样可以限制每层内能同时动作的神经元数,或者把层内
12、的神经元分为若干组,让每组作为一个整体来动作。第28页,此课件共72页哦2)神经网络学习算法n学习的过程实质上是针对一组给定输入,使网络产生相应的输出的过程。n神经网络学习算法分为两大类:有教师学习和无教师学习。n有教师学习是指在神经网络训练过程中,始终存在一个期望的网络输出,期望输出与实际输出之间的距离作为误差度量并用于调节网络连接权系数。第29页,此课件共72页哦n无教师学习指的是网络不存在一个期望的输出值,因而没有直接的误差信息,因此为实现对神经网络的训练,要建立一个间接评价函数,以对网络的某种行为趋向作出评价。第30页,此课件共72页哦5.1.3 5.1.3 人工神经网络的特点及类型人
13、工神经网络的特点及类型(1)人工神经网络的特点1)非线性2)非局域性n这是人类神经系统的一个特性,人的整体行为是非局域性的最明显体现。神经网络以大量神经元连接模拟人脑的非局域性,它的分布存储是非局域性的一种体现。第31页,此课件共72页哦3)非定常性n神经网络是模拟人脑思维运动的动力学系统,它应按不同时刻的外界刺激对自己的功能进行修改,因此是一个时变系统。4)非凸性n神经网络的非凸性是指它有多个极值,也即系统具有不只一个平衡状态。这会使系统的变化多样化,神经网络的全局优化算法就反映了这一点。第32页,此课件共72页哦5)具有泛化功能n能够处理未经训练的数据,并获得相应于这些数据的合适解答。同样
14、,能够处理有噪声或不完全的数据。具有很好的容错能力。6)具有自适应功能n根据所提供的数据,通过学习和训练,找出和输出之间的内在联系,从而得到问题的解答。第33页,此课件共72页哦7)高度并行处理n神经网络的处理是高度并行的,因此,用硬件实现的神经网络的处理速度,可远远高于通常计算机的处理速度。第34页,此课件共72页哦(2)人工神经网络的类型nHopfield网络,最典型的反馈网络模型,是目前人们研究最多的模型之一。它由相同的神经元构成,并且是不具学习功能的自联想网络,需要对称连接。这个网络可完成制约优化和联想记忆等功能。nBP网络,反向传播网络。是多层前向网络,采用最小均方差学习方式,需要教
15、师训练。用途广泛,如语言综合、识别和自适应控制等。第35页,此课件共72页哦nBlotzman机是典型的随机网络模型。它的单元具有二值状态,神经元的连接是双向的,且具有概率状态转移机制。它允许含隐单元来获取学习中的高阶规则。主要用于模式识别。Blotzman机训练时间长,并有噪声。nART网络是一种自组织网络模型,是无教师学习网络。它能较好地协调适应性、稳定性和复杂性的要求。在ART网络中,通常需要两个功能互补的子系统相互作用。该网络主要用于模式识别,其不足之处在于对转换失真和规模变化敏感。第36页,此课件共72页哦(1)Hopfield网络1)离散型Hopfield网络2)连续型Hopfie
16、ld网络(2)BP多层神经网络函数逼近模式识别分类数据压缩5.1.4典型的人工神经网络第37页,此课件共72页哦图5.5 多层网络及BP算法第38页,此课件共72页哦n1)BP算法的原理n设有一个m层的神经网络,并在输入层加有样本X,设第k层的i神经元的输入总和表示为、输出;从第k-1层的第j 个神经元到第k层的第i个神经元的权系数为ij,各个神经元的激发函数为f,则各个变量的关系可用下面有关的数学式表示:(5.1)(5.2)第39页,此课件共72页哦n正向传播n反向传播n2)BP算法的数学表达n多层网络的训练方法是把一个样本加到输入层,并根据向前传播的规则:(5.3)(5.4)第40页,此课
17、件共72页哦n把和期望输出yj进行比较,如果两者不等,则产生误差信号e,接着则按下面的公式反向传播修改权系数:n3)BP算法的执行步骤n对权系数ij置初值(5.5)(5.6)第41页,此课件共72页哦n输入一个样本X=(x1,x2,xn,1)以及对应期望输出Y=(y1,y2,yn)。n计算各层的输出(5.7)(5.8)第42页,此课件共72页哦(5.9)(5.10)(5.11)(5.12)第43页,此课件共72页哦n当求出了各层各个权系数之后,可按给定品质指标判别是否满足要求。如果满足要求,则算法结束;如果未满足要求,则返回执行。n4)BP网络的设计n设计BP网络时,一般应从以下几方面考虑:n
18、网络的层数n隐层的神经元数n初始权值的选取n学习速率第44页,此课件共72页哦n期望误差的选取n5.2模糊神经网络n5.2.1神经网络与模糊逻辑n5.2.2模糊神经网络n(1)模糊神经网络的结构n神经元的激发函数是神经元输入函数响应f的函数,即(5.13)第45页,此课件共72页哦图5.6 模糊神经网络的结构图第46页,此课件共72页哦n为了满足模糊控制的要求,对每一层的神经元函数应有不同的定义:n第一层,这一层的节点只是将输入变量值直接传送到下一层。所以n第47页,此课件共72页哦n第二层,如果采用一个神经元节点来实现语言值的隶属度函数变换,则这个节点的输出就可以定义为隶属度函数的输出,如钟
19、型函数就是一个很好的隶属度函数。n第三层,这一层的功能是完成模糊逻辑推理条件部的匹配工作。因此,由最大、最小推理规则可知,规则节点实现的功能是模糊“与”运算,即第48页,此课件共72页哦n第四层,在这一层上的节点有两种操作模式:一种是实现信号从上到下的传输模式;另一种是实现信号从下到上的传输模式。第49页,此课件共72页哦n第五层,在这一层中有两类节点:一类节点执行从上到下的信号传输方式,实现了把训练数据反馈到神经网络中去的目的,对于这类节点,其神经元节点函数定义为:n下列函数可以用来模拟重心法的解模糊运算:第50页,此课件共72页哦n(2)模糊神经网络的学习方法n为此必须首先确定和提供:n初
20、始模糊神经网络结构;n输入、输出样本训练数据;n输入、输出语言变量的模糊分区(如每一输入输出变量语言值的多少等)。n1)自组织学习阶段nKohonen自组织学习算法计算隶属度函数中心值mi的公式为:第51页,此课件共72页哦n此语言变量语言值所对应的宽度i的计算通过下列目标函数的极小值来获取的,即(5.14)(5.15)(5.16)第52页,此课件共72页哦n自组织学习法只是找到语言变量的初始分类估计值,一般采用一阶最近邻域法求取:(5.18)(5.18)(5.17)(5.19)第53页,此课件共72页哦n为了简化神经网络的结构,可以再通过规则结合的办法来减少系统总的规则数,如果:n该组节点具
21、有完全相同的结论部;n在该组规则节点中某些条件部是相同的;n该组规则节点的其他条件输入项包含了所有其他输入语言变量的某一语言值节点的输出。n2)有教师指导下的学习阶段第54页,此课件共72页哦图5.7 规则节点合并示例第55页,此课件共72页哦(5.20)(5.21)(5.22)第56页,此课件共72页哦(5.23)(5.24)第57页,此课件共72页哦n系统输出误差反向传播到上一层的广义误差(5)为:n(5.25)第58页,此课件共72页哦nn如果输出语言变量有m个,则(5.28)(5.26)(5.27)第59页,此课件共72页哦n第二层输入语言变量各语言值隶属度函数中心值的学习公式为:n输
22、入语言变量各语言值隶属度函数宽度值的学习公式为:(5.29)第60页,此课件共72页哦图5.8 模糊神经网络混合学习的流程图第61页,此课件共72页哦n5.3基于神经网络的模糊控制器n5.3.1复合型神经模糊控制器n(1)神经网络1n1)预处理(5.30)第62页,此课件共72页哦图5.9 系统结构第63页,此课件共72页哦n2)完成的功能n神经网络1根据对波形的分类,向判断机构1发送以下不同命令:n对A类波形:再次构造控制规则;n对B类波形:大幅度减小控制量;n对C类波形:减小一点控制量;n对D类波形:增加一点控制量;n对E类波形:大幅度减小控制量;n对F类波形:大幅度增加控制量;n对G类波
23、形:增加波形分类。第64页,此课件共72页哦n(2)神经网络2n1)预处理n2)完成的功能n(3)判断机构1n(4)判断机构2n(5)模糊控制器控制规则的构成步骤n用判断机构1确定最初的控制输入n发散波形处理n收敛波形处理第65页,此课件共72页哦n当控制对象输出波形的各个取样时刻tith时,判断机构2检测它们与目标值的偏差Ei及其变化量Ei,根据这些值决定以下各个量:n决定控制规则后件模糊变量隶属函数的规格化常数n根据规则前件求后件n根据波形分类分别处理第66页,此课件共72页哦n生成最初的控制规则n当取样时刻tith时,其步骤为:nA.找出EiZE时与目标值的偏差Ei,从这些Ei中再找出最
24、大的Ej,向判断机构2发送指令,以便构成对应于这一取样时刻j 输出波形状态的控制规则。nB.找出EiZE时的Ei,从这些Ei中找出最大的Ej,向判断机构2发送指令,以便构成对应于这一取样时刻j 输出波形状态的控制规则。第67页,此课件共72页哦n在按步骤构成规则时,前件的偏差Ei及其变化量Ei的模糊变量的标称都为零,所以,只要决定了其中一个就决定了前件。图5.10 融合型神经模糊控制器第68页,此课件共72页哦n反复进行步骤的操作,直到没有步骤的情况为止。n5.3.2融合型神经模糊控制器n5.3.3模糊神经网络在倒立摆控制中的应用n考虑摩擦时倒立摆的运动方程可由如下非线性微分方程描述:第69页,此课件共72页哦图5.11 倒立摆示意图第70页,此课件共72页哦第71页,此课件共72页哦n第72页,此课件共72页哦