《基于通用学习网络的大滞后系统控制.docx》由会员分享,可在线阅读,更多相关《基于通用学习网络的大滞后系统控制.docx(48页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、摘 要 本文中,利用通用学习网络对典型大滞后,非线性系统PH中和过程进行辨识,对比了BP神经网络算法对大滞后系统的训练和泛化效果。通过实验对比,得出结论,在大滞后系统模型的学习上,通用学习网络比BP神经网络要有优势。在本课题中,我们还尝试了改变网络结构,做仿真实验对比,证明了对于复杂对象,多分支与反馈支路能够极大地改善学习效果。与此同时,我们引入了一个常规的二阶带纯滞后对象作为补充,也对其做了仿真实验,对比了训练结果。在对以上两个过程对象充分学习的基础上,我们设计了ULN预估控制器,同时对比了Smith预估器,常规数字增量式PID控制器的控制效果。最后,我们还进行了控制系统鲁棒性分析,指出了,
2、通用学习网络具有自适应,自学习等优点,系统有很强的鲁棒性能。关键词:通用学习网络;大滞后系统;大滞后PH中和过程;预测控制算法ABSTRACTIn this paper, universal learning network(ULN) is adopted to identify the typical nonlinear and long time-delay system-PH neutralization process, and is compared with the training and generalization effect by BP neural network. T
3、hrough comparing the result, we conclude, on indentifying the long time-delay system, universal learning network(ULN) than the BP neural network will have an advantage. In this topic, through changing the the network structure, comparing the simulation effect, we prove that the network with multiple
4、 branching and feedback branches can increase the training effect greatly. Meanwhile a conventional second-order system with pure lag is introduced to the simulation as a supplement, and we have made the simulation experiment for comparison. Based on the fully indentified process, we have designed a
5、 ULN predictor controller, compared with the Smith predictor and conventional incremental digital PID controller control effect. Finally, we also carry a control system robustness analysis, pointing out that universal learning network has many characteristics, such as the abilities of self-adaption
6、and self-learning, so the system can ensure the robustness very well.Key words:universal learning network, large time-delay system, PH neutralizatoin precess with large time delay, predictive control Algorithm目 录前 言1第1章 绪论2第1.1节 课题来源2第1.2节 课题背景21.2.1大滞后回瞻21.2.2 大滞后控制进展2第1.3节 本文主要工作及结构安排4第二章 神经网络基本原理
7、6第2.1节 人工神经元模型6第2.2节 神经元网络学习方式和学习规则72.2.1神经元网络学习方式72.2.2神经元网络学习规则8第2.3节 BP神经网络92.3.1 BP神经网络结构92.3.2 BP神经网络算法10第2.4节 通用学习网络132.4.1 通用学习网络结构132.4.2 通用学习网络算法142.4.3 通用学习网络编程思路15第2.5节 本章小节16第三章 PH中和对象仿真17第3.1节 PH中和对象介绍17第3.2节 PH中和对象仿真173.2.1 ULN算法仿真173.2.2 BP算法与ULN算法对比23第3.3节 本章小节25第四章 普通纯滞后系统仿真26第4.1节
8、二阶带滞后对象的介绍26第4.2节 二阶带滞后对象的BP和ULN训练方法比较26第4.3节 本章小节29第五章 控制方案设计30第5.1节 控制方案介绍305.1.1 普通增量式PID控制305.1.2 ULN预估与增量式PID控制315.1.3 Smith预估器325.1.4 基于BP算法的PID控制器34第5.2节 控制效果对比355.2.1 二阶纯滞后系统的控制355.2.1 PH中和过程的控制37第5.3节 控制系统鲁棒性研究395.3.1 PH中和Hammerstein模型控制方案的鲁棒性39第5.4节 本章小结40结 论41参考文献42致 谢45前 言在化工,炼油,污水处理等工业过
9、程中,广泛地存在着大时滞现象,这也给闭环控制带来了很大的困难。在以往的常规PID控制中,对象的非线性,大时滞会急剧地恶化控制系统的性能,比如超调量增加,调节时间延长,系统震荡加剧,甚至造成闭环系统的不稳定,这对于系统的设计与维护造成了很大的困难。因而,如何对大滞后系统进行有效的控制,自然而然成为了控制领域的一大热点问题。在1957年,Smith首次提出了针对时滞系统采取预估计的方法,这在理论上完成了大滞后系统控制的方案。但是由于对被控对象参数模型的精确要求,系统鲁棒性低等局限性,限制了它在实际工程中的应用。现如今,计算机技术飞速发展,使得现代控制方法层出不穷,比如自适应控制,智能控制等。其中智
10、能控制又包括专家控制,模糊控制,以及神经元网络控制等。神经元网络具有超强的适应能力和学习能力,以及非常强的非线性表达能力,对于不确定的非线性大滞后系统非常适用,而且神经元网络控制对于干扰的抑制,系统的鲁棒性的提高都有非常不错的效果。本文针对神经网络BP算法无法对时滞系统进行有效的训练的特点,实现了通用学习网络对滞后系统的训练和泛化。本文对普通的二阶带纯滞后的系统以及非线性带大滞后的系统进行了仿真控制,实现了基于通用学习网络的预报控制,对比了普通PID控制与基于BP算法的PID控制,改进了控制效果。而仿真结果则表明,基于通用学习网络的控制在大滞后系统方面具有着非常大的优势。第1章 绪论第1.1节
11、 课题来源 随着化工过程的复杂化,在过程对象的控制过程中,不可避免的会出现大滞后系统,比如温度控制,炼油等过程。这些系统的特点是控制器的输出作用需要在一个滞后时间以后才能对系统起作用,这也就使得控制作用的效果不及时,以及被控变量不能及时地反映系统内部的变化,从而使得系统超调量明显增加,调节时间明显变长,系统震荡加剧,甚至不稳定而发散。而系统时滞的特性使得问题变得十分复杂,因而对此类问题的研究具有非常重要的理论和实际意义。第1.2节 课题背景1.2.1大滞后回瞻(1)Smith预估器1957年,Smith首次提出了针对时滞系统采取预估计的方法。Smith预估器能够在理论上较好的解决纯滞后系统的控
12、制问题。(2)Smith预估器的改进此后,其他许多学者在这一领域基础上提出了很多行之有效的方法。,其中包括神经网络Smith预估控制4, 15,非线性Smith预估器5,改进的Smith预估器2。1.2.2 大滞后控制进展(1)自适应控制对大多数的实际系统而言,被控对象的参数不可能保持定常,对于这一类系统,如果采用常规的控制方案,不仅会使得控制效果变差,严重的甚至会造成系统的发散,然而利用自适应控制则会达到比较好的效果。自适应控制的基本思路是依据自适应控制的“ 确定性等价原理”和“ 分离设计原则” 29 , 时变系统的控制器设计可以分为两步进行, 首先假定被控对象的参数已知且定常, 按给定的性
13、能指标设计出相应的控制器, 然后利用参数辨识在线估计出被控对象的参数值, 并以参数估计值代替控制器中所用的真值对系统进行控制3。自适应控制由于具有对时变参数的良好的自适应能力, 因而在时变时滞系统中得到了广泛的应用。现已提出的控制方法包括模型参考自适应预估控制29、自适应预估最优控制11, 13、极点配置最优预报自校正PID控制器、大时滞系统的自抗扰控制、时滞并联自适应控制、零极点配置的自校正内模控制28、动态矩阵控制等等。自适应控制的典型框图为图1-1所示。控制器最优预报参数辨识时变时滞过程R(s) Y(s)图11 自适应控制系统框图(2)智能控制方法随着智能控制理论和技术的飞速发展, 许多
14、学者将模糊控制和神经网络控制技术应用于大时滞控制系统当中。模糊控制的优点是不需要被控对象的精确数学模型, 而且具有很强的鲁棒性, 因而非常适合于不确定性系统。神经网络控制则具有自学习和自适应以及很强的非线性表述能力, 对于不确定的非线性时变系统非常适用。专家系统为解决复杂的不确定性对象的控制提供了另外一条有效途径, 它以控制专家的经验和知识弥补了对象数学模型的缺陷。智能控制方法虽然克服了预估器和自适应控制的缺陷, 但它们本身也并不是完美的。模糊控制的显著缺点是控制精度不高、自适应能力有限、存在稳态误差、可能引起振荡。神经网络控制的缺点是学习和训练比较费时、对训练集的要求也很高。专家控制则过度依
15、赖专家的经验, 缺乏自学习能力, 控制精度不高, 而且同样存在稳态误差。鉴于上述原因, 智能控制方法经常相互融合或者和预估器以及自适应控制相结合, 这也正是时变大时滞系统控制方法目前的研究方向。现已提出的方法包括神经元自适应控制、自调谐模糊控制器、专家控制与控制结合的递阶智能控制器、基于模糊神经网络的预测控制、变结构模糊控制器、基于模糊预测的间歇控制器、基于模糊逻辑的预估器、基于神经网络的非线性预估器、专家预估控制、非自衡系统的智能控制、遗传算法与最小二乘结合的时变时滞系统的在线辨识等等。上述控制方法各具特色, 也都具有相当不错的控制性能, 但是它们并不一定是最优的, 而且各自具有不同的复杂程
16、度, 对于大时滞时变系统, 有些算法可能会导致不稳定, 另外, 目前对时变大时滞工业过程的控制仍然以传统的预估器和控制为主, 许多新型的自适应控制方法和智能控制方法仍然处于理论研究和仿真研究阶段, 用于实际过程控制的不多。因此,时变大时滞系统的智能控制方法仍然处于发展阶段。第1.3节 本文主要工作及结构安排本课题研究的主要工作是通用学习网络(ULN)的编程实现,对不同滞后对象进行训练、泛化及其控制,同时对比以前经典的控制方案,实现效果对比,得出滞后系统方面,通用学习网络具有较大优势的结论。其中具体包括:(1)通用学习网络算法编程、BP算法实现;(2)通用学习网络不同结构时,对于Hammerst
17、ein模型训练,泛化效果对比分析;(3)通用学习网络与BP算法对于Hammerstein模型以及普通二阶带纯滞后系统训练,泛化对比;(4)对于普通的二阶带纯滞后系统使用了Smith预估PID控制,ULN预估控制以及普通增量式PID控制。(5)对于Hammerstein模型采用了基于通用学习网络的预估器控制,并且完成了与普通增量式PID控制的对比。(6)对PH中和Hammerstein模型的控制结构,进行了鲁棒性能研究,得出了仿真结果。归纳而言,全文主要内容与结构安排如下:第一章主要简述了当前控制界对于大滞后系统控制的方案,思路。第二章主要阐述了BP神经元网络的结构,原理,同时描述了通用学习网络
18、的结构,原理以及算法思路。第三章详细描述了对于Hammerstein模型使用不同类型的神经网络算法的训练,泛化对比各自效果并加以分析。第四章阐述了本课题中对于普通二阶带纯滞后系统的仿真。第五章主要是针对Hammerstein模型的PH中和滴定过程和普通二阶带纯滞后系统,实现使用ULN算法的预估控制。第二章 神经网络基本原理人工神经网络28 (ANN,ArtifieialNeuralNetworks)是对人脑神经系统的模拟而建立起来的。它是由简单信息处理单元(人工神经元,简称神经元)互联组成的网络,能够接受并处理信息。网络的信息处理是由处理单元之间的相互作用(连接权)来实现的。多年来,学者们己经
19、建立了多种神经网络模型,其中决定它们整体性能的因素主要是:神经元(信息处理单元)的特性,神经元之间相互连接的形式,为适应环境而改善性能的学习规则等。第2.1节 人工神经元模型人脑神经元是组成人脑神经系统的最基本单元,对人脑神经元进行抽象化后得到一种称为McCulloch一Pitts模型的人工神经元,人工神经元是人工神经网络的基本单元,从图2一1中可以看出,它相当于一个多输入单输出的非线性阈值器件。 图21人工神经元结构模型:神经元i的输出,它可以与其他多个神经元通过权值连接。 :神经元i的输入。 :神经元的连接权值。 :神经元i的阈值。 :神经元i的非线性输出函数。 该神经元的输出,可用下式描
20、述: (21) 令 (22)则 (23)根据活化函数的不同,人们把人工神经元分成以下几种类型22:(1)分段线性活化函数: (24)(2)sigmoid活化函数: (25)(3)双曲正切活化函数: (26)(4)高斯活化函数: (27)第2.2节 神经元网络学习方式和学习规则2.2.1神经元网络学习方式学习是神经网络的主要特征之一。学习规则就是修正神经元之间连接强度或加权系数的算法,使获得的知识结构适应周围环境的变化。在学习过程中,执行学习规则,修正加权系数。神经网络的学习方式主要分为有导师(指导式)学习、无导师(自学式)学习和再励学习(强化学习)三种19: (l)有导师学习:就是在学习的过程
21、中,有一个期望的网络输出,学习算法根据给定输入的神经网络实际输出与期望输出之间的误差来调整神经元的连接强度,即权值。因此学习需要有导师来提供期望输出信号。(2)无导师学习:就是在学习过程中不需要有期望输出,因而不存在直接的误差信息。网络学习需要建立一个间接的评价函数,每个处理单元能够自适应连接权值,以对网络的某种行为趋向作出评价。(3)再励学习:这种学习介于上述两种情况之间,外部环境对系统输出结果只给出评价(奖或罚)而不是给出正确答案,学习系统经过强化那些受奖励的行为来改善自身性能。2.2.2神经元网络学习规则神经网络通常采用的网络学习规则包括以下三种:(l)误差纠正学习规则19令是输入时神经
22、元k在n时刻的实际输出,表示应有的输出(可由训练样本给出),则误差信号可写为 (28)误差纠正学习的最终目的是使某一基于的目标函数达到要求,以使网络中每一输出单元的实际输出在某种统计意义上逼近应有输出。一旦选定了目标函数形式,误差纠正学习就变成了一个典型的最优化问题,最常用的目标函数是均方误差判据,定义为误差平方和的均值: (29)其中E为期望算子。上式的前提是被学习的过程是平稳的,具体方法可用最优梯度下降法。直接用J作为目标函数时需要知道整个过程的统计特性,为解决这一问题,通常用J在时刻n的瞬时值代替J,即: (210)问题变为求E对权值w的极小值,据梯度下降法可得: (211)其中为学习步
23、长,这就是通常所说的误差纠正学习规则。(2)Hebb学习规则由神经心理学家Hebb提出的学习规则可归纳为“当某一突触连接两端的神经元同时处于激活状态(或同为抑制)时,该连接的强度应增加,反之应减弱”用数学方式可描述为: (212)由于与的相关成比例,有时称为相关学习规则。(3)竞争学习规则顾名思义,在竞争学习时,网络各输出单元互相竞争,最后达到只有一个最强者激活,最常见的一种情况是输出神经元之间有侧向抑制性连接,这样原来输出单元中如有某一单元较强,则它将获胜并抑制其它单元,最后只有此强者处于激活状态。最常用的竞争学习规则可写为: (213)第2.3节 BP神经网络20世纪80年代中期,以Rum
24、elhart和McClelland为首,提出了多层前馈网络(MFNN)的反向传播(BP,Back Propagation)的学习算法,简称BP算法。2.3.1 BP神经网络结构BP网络结构如下图: 输入层节点输出层节点隐层节点 i j k 图22 BP网络结构图为网络的输入和输出,每个神经元用一个节点表示,网络包含一个输出层和一个输入层,隐含层可以是一层也可以是多层。图中j表示输入层神经元,i表示隐层神经元,k表示输出层神经元。已经证明BP网络能逼近任意非线性函数,在各个领域中有广泛的应用。BP网络中采用梯度下降法,即在网络学习过程中,使网络的输出与期望输出的误差边向后传播边修正连接权值,以使
25、其误差均方值最小。学习算法有正向传播和反向传播组成,在正向传播中,输入信号从输入层经过隐层传向输出层,若输出层得到期望的输出,学习结束,否则,转至反向传播。反向传播算法是将误差信号按照原链路反向计算,由梯度下降法调整各层神经元的权值,使误差信号最小。这两部分是相继连续反复进行的,直到误差满足要求。2.3.2 BP神经网络算法1BP神经网络的算法主要可以分为两部分,一是前向传播算法,就是已知网络的输入和活化函数求各层的输出;二是反向传播算法,即如果输出不满足要求就不断修正权值。(1) BP神经网络的前向传播算法设某BP神经网络具有m个输入、q个隐含节点、r个输出的三层结构,则BP神经网络的输入为
26、: j=1,2.m (214)输入层节点的的输出为 : j=1,2.m (215)隐含层第i个神经元的输入: i=1,2.q (216)输出可表达为 : i=1,2.q (217)其中为输入层到隐层加权系数;上标(1)、(2)、(3)分别代表输入层、隐含层、输出层,为隐层活化函数,这里取为Sigmoid活化函数。 (218)输出层的第k个神经元的总输入为: k=1,2.r (219)输出层的第k个神经元的总输出为 k=1,2. (220)式中,:为隐层到输出层加权系数,为输出活化函数。 以上工作在神经网络工作时,就可以完成了一次前向传播的计算。 (2) BP神经网络的反向传播计算假设,神经网络
27、的理想输出为,在前向计算中,若实际输出与理想输出不一致,就要将其误差信号从输出端反向传播回来,并在传播过程中对加权系数不断修正,使输出层神经元上得到所需要的期望输出为止。为了对加权系数进行调整,选取目标函数为: (221)以误差函数E减少最快方向调整,即使加权系数按误差函数E的负梯度方向调整,使网络逐渐收敛。按照梯度下降法,可得到神经元j到神经元i的t+1次权系数调整值: (222)由式(221)可知,需要变换出E相对于该式中网络此刻实际输出关系,因此 (223)而其中的 (224)其中的表示节点i的第j个输入。所以 (225) 将(225)代入式(223),可以得到: (226)令 (227
28、)式中为第i个节点的状态对E的灵敏度。由式(226)和式(227)可以得到: (228)以下分两种情况计算: 若i为输出层节点,即i =k由式(221)和(227)可得 (229)所以可得: (230)此时应该按照下列公式进行调整: (231)式中为学习速率。 若i不为输出层神经元,即此时式(227)为 (232)其中 (233)式中是节点i后边一层的第个节点,是节点的第j个输入。 (234)当i=j时,将式(232)和(234)代入(228),有 (235)此时的权值调整公式为: (236)通过(231)和(236)我们就可以完成神经网络的反向传播算法。实现权值的实时调整。第2.4节 通用学
29、习网络2.4.1 通用学习网络结构通用学习网络的结构与以往神经网络相比, 具有显著的特点, 其结构如图23所示网络由多个节点以及节点之间带有延迟的分支组成。在图23中, i,j,k表示网络节点,由图可以看出,该网络结构上的特点:1)网络的所有节点都是互连的;2)每两个节点之间可以具有多重分支;3)每个分支上具有任意的延迟时间, 使网络的时序特点更加明显, 即网络当前时刻的输出不仅取决于当前时刻网络的输入, 还与前几个时刻网络各节点的输出有关。 图23 通用学习网络结构图2.4.2 通用学习网络算法通用学习网络的一般方程为: (236)其中,表示节点j在t时刻的输出,是节点j的非线性函数;是节点
30、i到j的分支连接中,第p条分支上的延迟时间;表示输出与节点j相连的节点的集合,表示从节点i到节点j的分支集合,表示网络第m个参数在t时刻的数值,表示可变参数的下标集合,代表t时刻的第n个外部输入, 表示节点的集合,是采样时间17-24,27。通用学习网络通过的反向传播老调整参数进行训练,参数更新如下: (237)其中,是网络的学习率,是一个小的常数。是E对的时序偏微分,指在其他变量不变的情况下,一个变量变化而造成的评价函数的改变。时序偏微分同时考虑了直接和间接两方面的因素。网络学习的评价函数E的公式为: (238)其中,是教师信号的输出,为网络模型的输出,T是训练样本数。2.4.3 通用学习网
31、络编程思路通过以上分析,我们不难得出网络算法的编程思路,如下框图:初始化权值,分支数,延迟时间,最大训练次数给定样本,包括输入输出序列前向传播,计算各节点加权输入和,以及时序输出。计算目标值和实际输出值的误差反向传播,逐层修正分支上的参数训练次数M,或者误差足够小?N结束Y图24 通用学习网络程序流程图第2.5节 本章小节本章介绍了神经元网络的基本原理,比如信号的传播,以及神经元网络的学习方法和规则,并且引出了本文中将使用到的BP神经网络算法,以及通用学习网络算法,并且绘出了通用学习网络的编程思路。第三章 PH中和对象仿真PH控制过程往往被人们视为典型的非线性过程。在实际生产过程中,PH控制出
32、了应用于某些中和反应外,主要是在污水处理中得到了较多的应用。由于工业污水的处理量很大,在PH控制中必须采用相应的措施,才能确保污水中的PH值控制在允许的范围内,并且节省中和剂的消耗量。第3.1节 PH中和对象介绍PH中和过程是常见的工业过程,是化工生产过程中典型的强非线性被控过程,在中和点附近具有非常高的灵敏度,中和剂量稍有变化,就能引起PH大幅度的变化,因此PH控制一般被公认为最难控的变量之一。由于酸、碱物质中和具有非线性特性, 而调节阀、管道、中和池及传感器等因素使中和过程表现出动态特性, PH中和过程可以由一个静态非线性函数加一线性动态环节的非线性Hammerstein模型来描述。而文献
33、18 给出的Hammerstein模型描述为方程(31) (32): (31) (32)其中:,是酸剂流量阀位电流,为中和液PH值。和是和的基值,系统采样时间为1min。从方程(31) (32)中可以看出,模型是一个滞后为20到22之间的一个大滞后对象,以及输入模型本身的非线性,PH中和滴定过程在这就造成控制器的设计要求也就非常的高8。第3.2节 PH中和对象仿真3.2.1 ULN算法仿真利用PID控制器作为控制器对上述系统进行控制,得到对象的输入输出序列作为训练网络的教师信号。教师信号如图3-1。前900 组信号用来训练网络,后900组信号用来检验网络的泛化能力。其中,为输入,为系统输出,即
34、PH值。由于对象比较复杂,我们选取了多分支,带输出到隐藏层的反馈,同时带延迟项的网络结构。具体的通用学习网络的仿真条件如下:表31 Hammerstein模型的ULN算法仿真条件节点数N11节点幅值1分支数B3激励函数sigmoid活化函数初试权值-0.20.2最大训练次数500学习率0.015动量因子0.1同时输入到隐藏层分支上的延迟项分别设定为0,1,2,隐藏层到输出层延迟为19,20,21,输出反馈到隐藏层延迟设定为1,2,3。模型仿真效果如图31,32,33,34。图31 教师信号图图32 ULN算法训练图图33 误差曲线图图34 ULN算法泛化图其中,practical output
35、为实际输出,而expect output是期望信号,也就是教师信号,系统的采样时间为1min。为了验证这个网络结构的优越性,我们同时也做了没有分支,不带反馈的通用学习网络对比。实验仿真条件如下:表32 Hammerstein模型的ULN算法仿真条件表节点数N11节点幅值1分支数B1激励函数sigmoid活化函数初试权值-0.20.2最大训练次数1000学习率0.015动量因子0.1同时,输出到隐藏层不带反馈,信号只是前向传输,误差为反向传播。此时,仿真效果如图35,36,37,38。图35 教师信号图图36 无分支和反馈支路时网络的训练效果图图37无分支时,网络的训练误差曲线图图38 无分支时
36、,网络的泛化曲线图同时,训练500次时,误差基本收敛了,此时训练误差对比如下:表33 误差对比表有3分支,带输出反馈的网络不带分支,不带输出反馈的网络通过实验对比,我们能够充分看出,针对PH中和的Hammerstein这样严重非线性,存在大滞后的系统而言,多分支与反馈支路能够较好地修正训练误差,提高泛化能力。3.2.2 BP算法与ULN算法对比前文已经介绍了BP算法,BP算法已经被证明它能够逼近任意的非线性模型,因此本课题中,特意做了针对Hammerstein的BP算法训练。BP算法仿真条件如下表:表34 BP算法仿真条件表节点数N11节点幅值1分支数B1激励函数sigmoid活化函数初试权值
37、-0.20.2最大训练次数1000学习率0.01动量因子0.01BP算法本身不带时间滞后项,得到的效果图如下:图39 BP网络对Hammerstein模型的训练误差曲线图310 BP对Hammerstein的训练结果理论上,由于BP网络本身不带多分支与延迟项,对于具有时序性的样本时,即当前时刻的样本输出不仅跟当前时刻的样本输入有关,还跟前某几个时刻的输入相关时,BP网络的训练就显得比较乏力了,而通用学习网络即ULN由于本身带延迟项,使得系统能够很好的模拟上对象的时序性,同时进行权值修正,使得训练以及泛化效果方面能够很好地跟踪上教师信号。通过仿真实验可以看出,用BP算法训练Hammerstein
38、时,3000步后的训练误差是0.03772,而通用学习网络训练500次后的误差即为表33中的数量级,并且通过对比图310与图32可以明显看出,在对大滞后系统的逼近方面,通用学习网络明显优于BP网络。第3.3节 本章小节本章针对PH中和的Hammerstein模型,进行了BP算法,ULN算法的训练以及泛化。通过对比各自效果图,同时对比了有多分支和反馈时的ULN与不带多分支和反馈的ULN的效果,证明了在辨识如Hammerstein这样的非线性很严重,时滞很大的系统时,带多分支,反馈时的通用学习网络效果比较好。第四章 普通纯滞后系统仿真上一章分析了对于PH滴定这样很复杂的系统ULN的优势,本章将再选
39、取一个普通的二阶带纯滞后系统来证明ULN算法对于BP算法的优势。同时采用了基于BP算法的PID控制,和Smith预估控制来对此系统来控制,并且进行了简单对比。第4.1节 二阶带滞后对象的介绍在实际的很多过程控制中,我们会碰到很多的比较复杂的系统,比如列管式换热器的出口温度控制、多级水槽液位控制等。这些系统如果用机理建模,会发现它们是高阶系统,或者发现它们机理非常复杂,很难推导出传递函数,但是我们在过程控制中,在系统能够稳定控制的情况下,可以把他们降阶,简化为一个二阶带纯滞后的系统,这样就能比较方便的设计控制器,同时降低控制器成本。第4.2节 二阶带滞后对象的BP和ULN训练方法比较本课题中,我们选择了传递函数为的对象,并对其进行了仿真,我们首先采用了BP算法来训练。仿真条件如下表:表41 BP算法仿真条件表节点数N6节点幅值1分支数B1激励函数sigmoid活化函数初试权值01最大训练次数7000学习率0.015动量因子0.1训练效果如图41,42。图41 BP神经网络对2阶纯滞后系统训练图42 BP算法对