神经网络——算法幻灯片.ppt

上传人:石*** 文档编号:87368653 上传时间:2023-04-16 格式:PPT 页数:79 大小:5.89MB
返回 下载 相关 举报
神经网络——算法幻灯片.ppt_第1页
第1页 / 共79页
神经网络——算法幻灯片.ppt_第2页
第2页 / 共79页
点击查看更多>>
资源描述

《神经网络——算法幻灯片.ppt》由会员分享,可在线阅读,更多相关《神经网络——算法幻灯片.ppt(79页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、神经网络算法第1页,共79页,编辑于2022年,星期二反向传播网络反向传播网络 BackPropagation Network,由于其权值的调整采用反向传播由于其权值的调整采用反向传播(Backpropagation)的学习算法,)的学习算法,因此被称为因此被称为BP网络。网络。第2页,共79页,编辑于2022年,星期二BP网络网络 是一种单向传播的多层前向网络是一种单向传播的多层前向网络其神经元的变换函数是其神经元的变换函数是S型函数,型函数,因此输出量为因此输出量为0到到1之间的连续量之间的连续量它可以对非线性可微分函数进行它可以对非线性可微分函数进行权值训练,从而实现输入到输出权值训练,

2、从而实现输入到输出的任意的非线性映射。的任意的非线性映射。第3页,共79页,编辑于2022年,星期二 网络中心思想是梯度下降法网络中心思想是梯度下降法 通过梯度搜索技术,使网络通过梯度搜索技术,使网络实际输出值与期望输出值的实际输出值与期望输出值的误差均方值最小。误差均方值最小。第4页,共79页,编辑于2022年,星期二网络的学习过程是一种误差网络的学习过程是一种误差边向后传播边修正权系数的边向后传播边修正权系数的过程过程第5页,共79页,编辑于2022年,星期二7.2.2 BP网络结构 BP神经网络模型结构神经网络模型结构 输入层输入层隐层隐层输出层输出层输输 入入输输 出出第6页,共79页

3、,编辑于2022年,星期二BP网络是一种多层前向神经网络网络是一种多层前向神经网络v一般分三层:输入层,隐层,输出层,也可以有一般分三层:输入层,隐层,输出层,也可以有2层或更多个隐层。层或更多个隐层。v层与层之间采用全互联方式,同一层单元之间不存层与层之间采用全互联方式,同一层单元之间不存在相互连接。在相互连接。第7页,共79页,编辑于2022年,星期二1)输入层单元无转换函数,直接接收信号传给下一)输入层单元无转换函数,直接接收信号传给下一层,所以有些书不认为输入层是一个网络层。层,所以有些书不认为输入层是一个网络层。2)在一般情况下,均是在隐含层采用)在一般情况下,均是在隐含层采用 S

4、型激活函数,型激活函数,而输出层采用线性激活函数。而输出层采用线性激活函数。x1x2xny1yp只有当希望对网络只有当希望对网络的输出进行限制,的输出进行限制,如限制在如限制在0和和1之间,之间,那么则在输出层那么则在输出层包含包含 S 型激活函数型激活函数第8页,共79页,编辑于2022年,星期二BP网络特点网络特点是多层网络,包括输入层、隐层和输出层是多层网络,包括输入层、隐层和输出层层与层之间采用全互连方式,同一层神经层与层之间采用全互连方式,同一层神经元之间不连接元之间不连接权值通过学习算法进行调节权值通过学习算法进行调节神经元激发函数为神经元激发函数为S函数函数层与层的连接是单向的,

5、信息传播是双向层与层的连接是单向的,信息传播是双向的的第9页,共79页,编辑于2022年,星期二感知机网络利用输出误差只能修感知机网络利用输出误差只能修改最后一层的权值改最后一层的权值而而BP网络实现了多层学习,每一网络实现了多层学习,每一层的权值均可训练学习修改。层的权值均可训练学习修改。第10页,共79页,编辑于2022年,星期二BP学习规则学习规则 BP算法属于算法属于算法,是一种算法,是一种监督式的学习算法。监督式的学习算法。第11页,共79页,编辑于2022年,星期二其主要思想为:其主要思想为:对于对于q个输入学习样本:个输入学习样本:P1,P2,Pq,已知与其对应的输出样本为:已知

6、与其对应的输出样本为:T1,T2,Tq。学习的目的:学习的目的:是用网络的实际输出是用网络的实际输出A1,A2,Aq与目标矢量与目标矢量T1,T2,Tq之间的误差来修改其权值之间的误差来修改其权值 使使Al(ll,2,q)与期望的与期望的Tl尽可能地接近;尽可能地接近;即:即:使网络输出层的误差平方和达到最小。使网络输出层的误差平方和达到最小。第12页,共79页,编辑于2022年,星期二BP算法的学习过程由算法的学习过程由 正向传播正向传播和和反向传播反向传播组成组成第13页,共79页,编辑于2022年,星期二 BP算法是由两部分组成:信息的算法是由两部分组成:信息的正向传递与误差的反向传播。

7、正向传递与误差的反向传播。在正向传播过程中,输入信息在正向传播过程中,输入信息从输入经隐含层逐层计算传向输从输入经隐含层逐层计算传向输出层,每一层神经元的状态只影出层,每一层神经元的状态只影响下一层神经元的状态。响下一层神经元的状态。第14页,共79页,编辑于2022年,星期二如果在输出层没有得到期望的如果在输出层没有得到期望的输出,则计算输出层的误差变输出,则计算输出层的误差变化值,然后转向反向传播,通化值,然后转向反向传播,通过网络将误差信号沿原来的连过网络将误差信号沿原来的连接通路反传回来修改各层神经接通路反传回来修改各层神经元的权值直至达到期望目标。元的权值直至达到期望目标。第15页,

8、共79页,编辑于2022年,星期二BP网络用途网络用途1)函函数数逼逼近近:用用输输入入矢矢量量和和相相应应的的输输出出矢矢量训练一个网络逼近量训练一个网络逼近个函数;个函数;2)模模式式识识别别:用用一一个个特特定定的的输输出出矢矢量量将将它它与输入矢量联系起来;与输入矢量联系起来;3)分分类类:把把输输入入矢矢量量以以所所定定义义的的合合适适方方式式进行分类;进行分类;4)数据压缩:减少输出矢量维数以便于传数据压缩:减少输出矢量维数以便于传输或存储。输或存储。第16页,共79页,编辑于2022年,星期二BP网络的逼近第17页,共79页,编辑于2022年,星期二用于逼近的BP网络第18页,共

9、79页,编辑于2022年,星期二前向传播:计算网络输出前向传播:计算网络输出输出层输出输出层输出隐层输出采用隐层输出采用S函数函数隐层输入:隐层输入:第19页,共79页,编辑于2022年,星期二第20页,共79页,编辑于2022年,星期二第21页,共79页,编辑于2022年,星期二第22页,共79页,编辑于2022年,星期二第23页,共79页,编辑于2022年,星期二BP网络逼近仿真Chap7_1.m第24页,共79页,编辑于2022年,星期二设计的网络结构为设计的网络结构为2-6-1;权值权值w1,w2的初值取的初值取-1,+1之间的随机值,之间的随机值,取取第25页,共79页,编辑于202

10、2年,星期二第26页,共79页,编辑于2022年,星期二第27页,共79页,编辑于2022年,星期二第28页,共79页,编辑于2022年,星期二第29页,共79页,编辑于2022年,星期二第30页,共79页,编辑于2022年,星期二第31页,共79页,编辑于2022年,星期二第32页,共79页,编辑于2022年,星期二第33页,共79页,编辑于2022年,星期二第34页,共79页,编辑于2022年,星期二 初始化 加输入和期望输出计算隐层和输出层的输出迭代次数加1调节输出层和隐层的连接权值 改变训练样板训练样终止?迭代终止?BP算法的基本流程NoNoyy第35页,共79页,编辑于2022年,星

11、期二BP网络模式识别一、一、由于神经网络具有自学习、自组织和并行处理等由于神经网络具有自学习、自组织和并行处理等特征,并具有很强的容错能力和联想能力,因此,特征,并具有很强的容错能力和联想能力,因此,神经网络具有模式识别能力。神经网络具有模式识别能力。在神经网络识别中,根据标准的输入输出模式对,在神经网络识别中,根据标准的输入输出模式对,采用神经网络学习算法,以标准的模式作为学习采用神经网络学习算法,以标准的模式作为学习样本进行训练,通过学习调整神经网络的连接权样本进行训练,通过学习调整神经网络的连接权值。值。当训练满足要求后,得到知识库,利用神经网络当训练满足要求后,得到知识库,利用神经网络

12、并行推理算法便可对所需的输入模式进行识别。并行推理算法便可对所需的输入模式进行识别。第36页,共79页,编辑于2022年,星期二BP网络的训练过程 为了训练一个为了训练一个BP网络,需要计算网络加权输入网络,需要计算网络加权输入矢量以及网络输出和误差矢量,然后求得误差平矢量以及网络输出和误差矢量,然后求得误差平方和。方和。当所训练矢量的误差平方和小于误差目标,训练则当所训练矢量的误差平方和小于误差目标,训练则停止,否则在输出层计算误差变化,且采用反向传播停止,否则在输出层计算误差变化,且采用反向传播学习规则来调整权值,并重复此过程。学习规则来调整权值,并重复此过程。当网络完成训练后,对网络输入

13、一个不是训练当网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将给出输出结果。集合中的矢量,网络将给出输出结果。第37页,共79页,编辑于2022年,星期二 为了能够较好地掌握为了能够较好地掌握BP网络的训练网络的训练过程,我们再用两层网络为例来叙述过程,我们再用两层网络为例来叙述BP网络的训练步骤。网络的训练步骤。1)用用小小的的随随机机数数对对每每一一层层的的权权值值W初初始始化化,以保证网络不被大的加权输入饱和;以保证网络不被大的加权输入饱和;2)计计算算网网络络各各层层输输出出矢矢量量A1和和A2以以及及网网络络误差误差E第38页,共79页,编辑于2022年,星期二3)计算各层

14、反传的误差变化并计算各层权值计算各层反传的误差变化并计算各层权值的修正值以及新权值的修正值以及新权值4)再次计算权值修正后误差平方和:再次计算权值修正后误差平方和:5)检查误差是否小于给定误差,若是,训练检查误差是否小于给定误差,若是,训练结束;否则继续。结束;否则继续。第39页,共79页,编辑于2022年,星期二以上所有的学习规则与训练的全过程,仍然可以用函数以上所有的学习规则与训练的全过程,仍然可以用函数trainbp.m来完成。它的使用同样只需要定义有关参数:来完成。它的使用同样只需要定义有关参数:显示间隔次数,最大循环次数,目标误差,以及学习速率,显示间隔次数,最大循环次数,目标误差,

15、以及学习速率,而调用后返回训练后权值,循环总数和最终误差:而调用后返回训练后权值,循环总数和最终误差:TPdisp_freq max_epoch err_goal 1r;W,B,epochs,errorstrainbp(W,B,F,P,T,TP);第40页,共79页,编辑于2022年,星期二基于基于BP算法的多层前馈网络用图像压缩编码算法的多层前馈网络用图像压缩编码Ackley和和Hinton等人等人1985年提出了利用多层前馈神经网年提出了利用多层前馈神经网络的模式变换能力实现数据编码的基本思想。络的模式变换能力实现数据编码的基本思想。其原理是,把一组输入模式通过少量的隐层节点映射其原理是,

16、把一组输入模式通过少量的隐层节点映射到一组输出模式,并使输出模式等同于输入模式。当到一组输出模式,并使输出模式等同于输入模式。当中间隐层的节点数比输入模式维数少时,就意味着隐中间隐层的节点数比输入模式维数少时,就意味着隐层能更有效的表现输入模式,并把这种表现传给输出层能更有效的表现输入模式,并把这种表现传给输出层。在这个过程中,输入层和隐层的变换可以看成是层。在这个过程中,输入层和隐层的变换可以看成是压缩编码的过程;而隐层和输出层的变换可以看成是压缩编码的过程;而隐层和输出层的变换可以看成是解码过程。解码过程。第41页,共79页,编辑于2022年,星期二用多层前馈网实现图像数据压缩时,只需一个

17、隐层,如图用多层前馈网实现图像数据压缩时,只需一个隐层,如图原图像原图像nn重建图像重建图像nn第42页,共79页,编辑于2022年,星期二输入层和输出层均含有输入层和输出层均含有n*n个神经元,每个神经元对应个神经元,每个神经元对应于于n*n图像分块中的一个像素。隐层神经元的数量由图像图像分块中的一个像素。隐层神经元的数量由图像压缩比决定,如压缩比决定,如n=16时,取隐层神经元数为时,取隐层神经元数为m=8,则可则可将将256像素的图像块压缩为像素。像素的图像块压缩为像素。通过调整权值使训练集图像的重建误差达到最小。训练通过调整权值使训练集图像的重建误差达到最小。训练后的网络就可以用来执行

18、图像的数据压缩任务了,此时后的网络就可以用来执行图像的数据压缩任务了,此时隐层输出向量便是数据压缩结果,而输出层的输出向量隐层输出向量便是数据压缩结果,而输出层的输出向量便是图像重建的结果。便是图像重建的结果。第43页,共79页,编辑于2022年,星期二黑白图像的边缘检测:黑白图像的边缘检测:第44页,共79页,编辑于2022年,星期二分析分析BP网络结构特点:网络结构特点:1.BP网络具有一层或多层隐网络具有一层或多层隐含层,与其他网络模型除了结含层,与其他网络模型除了结构不同外,主要差别表现在激构不同外,主要差别表现在激活函数上。活函数上。BP网络的设计网络的设计 第45页,共79页,编辑

19、于2022年,星期二 2.BP网络的激活函数必须是网络的激活函数必须是处处可微的,所以它就不能处处可微的,所以它就不能采用二值型的阀值函数采用二值型的阀值函数0,1或符号函数或符号函数1,1,BP网络网络经常使用的是经常使用的是S型的对数或正型的对数或正切激活函数和线性函数。切激活函数和线性函数。第46页,共79页,编辑于2022年,星期二3.只有当希望对网络的输出进只有当希望对网络的输出进行限制,如限制在行限制,如限制在0和和1之间,之间,那么在输出层应当包含那么在输出层应当包含S型激型激活函数,在一般情况下,均是活函数,在一般情况下,均是在隐含层采用在隐含层采用S型激活函数,型激活函数,而

20、输出层采用线性激活函数。而输出层采用线性激活函数。第47页,共79页,编辑于2022年,星期二4、输入和输出是并行的模拟量;、输入和输出是并行的模拟量;5、网网络络的的输输入入输输出出关关系系是是各各层层连连接接的的权权因因子子决决定定,没没有有固固定定的算法;的算法;第48页,共79页,编辑于2022年,星期二6、权因子是通过学习信号调节、权因子是通过学习信号调节的,这样学习越多,网络越聪的,这样学习越多,网络越聪明;明;7、隐隐含含层层越越多多,网网络络输输出出精精度度越越高高,且且个个别别权权因因子子的的损损坏坏不不会会对对网网络络输输出出产产生生大大的的影影响响第49页,共79页,编辑

21、于2022年,星期二BP网络的设计 1 网络的层数:网络的层数:理论上已经证明:具有偏差和至少一个理论上已经证明:具有偏差和至少一个S型隐含层型隐含层加上一个线性输出层的网络,能够逼近任何有理函数。加上一个线性输出层的网络,能够逼近任何有理函数。增加层数主要可以更进一步的降低误差,提高精增加层数主要可以更进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络权值的度,但同时也使网络复杂化,从而增加了网络权值的训练时间。训练时间。一般情况下,应优先考虑增加隐含层中的神经元一般情况下,应优先考虑增加隐含层中的神经元数。数。能不能仅用具有非线性激活函数的单层网络来能不能仅用具有非线性激活函

22、数的单层网络来解决问题呢?结论是:没有必要或效果不好。解决问题呢?结论是:没有必要或效果不好。第50页,共79页,编辑于2022年,星期二2 隐含层的神经元数隐含层的神经元数 网络训练精度的提高,可以通过采用网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元数的方法一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要比增加更来获得。这在结构实现上,要比增加更多的隐含层要简单得多。多的隐含层要简单得多。在具体设计时,比较实际的做法是通在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,然后过对不同神经元数进行训练对比,然后适当地加上一点余量。适当地加上一点余量。第51页

23、,共79页,编辑于2022年,星期二3)初始权值的选取)初始权值的选取一般取初始权值在一般取初始权值在(-1,1)之间的随机数。之间的随机数。在在MATLAB工具箱中可采用函数工具箱中可采用函数initff.m来初始化权来初始化权值阈值。值阈值。由于每次训练时都对权值进行随机初始化,所以由于每次训练时都对权值进行随机初始化,所以每次训练得到的网络权值都是不一样的。每次训练得到的网络权值都是不一样的。第52页,共79页,编辑于2022年,星期二4 学习速率学习速率 学习速率决定每一次循环训练中所产学习速率决定每一次循环训练中所产生的权值变化量。生的权值变化量。大的学习速率可能导致系统的不稳定。大

24、的学习速率可能导致系统的不稳定。小的学习速率导致较长的训练时间,小的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差可能收敛很慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于最值不跳出误差表面的低谷而最终趋于最小误差值。小误差值。所以在一般情况下,倾向于选取较小所以在一般情况下,倾向于选取较小的学习速率以保证系统的稳定性。学习的学习速率以保证系统的稳定性。学习速率的选取范围在速率的选取范围在00108之间。之间。第53页,共79页,编辑于2022年,星期二5 期望误差的选取期望误差的选取 在设计网络的训练过程中,期望误差值也应当通在设计网络的训练过程中,期望误差值也应当通

25、过对比训练后确定一个合适的值。过对比训练后确定一个合适的值。这个所谓的这个所谓的“合适合适”,是相对于所需要的隐,是相对于所需要的隐含层的节点数来确定,因为较小的期望误差值是含层的节点数来确定,因为较小的期望误差值是要靠增加隐含层的节点,以及训练时间来获得的。要靠增加隐含层的节点,以及训练时间来获得的。一般情况下,作为对比,可以同时对两个不同期望一般情况下,作为对比,可以同时对两个不同期望误差值的网络进行训练,最后通过综合因素的考虑来误差值的网络进行训练,最后通过综合因素的考虑来确定采用其中一个网络。确定采用其中一个网络。第54页,共79页,编辑于2022年,星期二BP网络的局限与不足网络的局

26、限与不足(1)需要较长的训练时间需要较长的训练时间 因为涉及到求导的运算,需要的时间较长因为涉及到求导的运算,需要的时间较长(2)训练瘫痪问题训练瘫痪问题通常为了避免这种现象的发生,一是选取较小的初通常为了避免这种现象的发生,一是选取较小的初始权值,二是采用较小的学习速率,但这又增加了始权值,二是采用较小的学习速率,但这又增加了训练时间。训练时间。第55页,共79页,编辑于2022年,星期二(3)局部极小值局部极小值BP算法可以使网络权值收敛到一个解,但它并算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解

27、。可能是一个局部极小解。WEW初始值不合适时,可能初始值不合适时,可能落入局部极小值。落入局部极小值。第56页,共79页,编辑于2022年,星期二7.2.11 反向传播法的改进方法 目标:为了加快训练速度,避免陷入局部极小值。目标:为了加快训练速度,避免陷入局部极小值。1 附加动量法附加动量法 附加动量法使网络在修正其权值时,不仅考虑误差在梯附加动量法使网络在修正其权值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响,度上的作用,而且考虑在误差曲面上变化趋势的影响,其作用如同一个低通滤波器,它允许网络忽略网络上其作用如同一个低通滤波器,它允许网络忽略网络上的微小变化特性。的微

28、小变化特性。利用附加动量的作用则有可能滑过局部极小值。利用附加动量的作用则有可能滑过局部极小值。第57页,共79页,编辑于2022年,星期二 该方法是在反向传播法的基础上在每一个权该方法是在反向传播法的基础上在每一个权值的变化上加上一项正比于前次权值变化量的值,值的变化上加上一项正比于前次权值变化量的值,并根据反向传播法来产生新的权值变化。并根据反向传播法来产生新的权值变化。附加动量法的实质是将最后一次权值变化的影响,附加动量法的实质是将最后一次权值变化的影响,通过一个动量因子来传递。当动量因子取值为零时,通过一个动量因子来传递。当动量因子取值为零时,权值的变化仅是根据梯度下降法产生;当动量因

29、子取权值的变化仅是根据梯度下降法产生;当动量因子取值为值为1时,新的权值变化则是设置为最后一次权值的时,新的权值变化则是设置为最后一次权值的变化,而依梯度法产生的变化部分则被忽略掉了。变化,而依梯度法产生的变化部分则被忽略掉了。第58页,共79页,编辑于2022年,星期二2 误差函数的改进误差函数的改进 包穆包穆(Baum)等人于等人于1988年提出一种误差函数为:年提出一种误差函数为:不会产生不能完全训练的瘫痪现象。不会产生不能完全训练的瘫痪现象。第59页,共79页,编辑于2022年,星期二3 自适应学习速率自适应学习速率 学习率学习率也称步长,在标准也称步长,在标准BP 算法中定为常数,然

30、算法中定为常数,然而在实际应用中,很难确定一个从始至终都合适的最而在实际应用中,很难确定一个从始至终都合适的最佳学习率,从误差曲面可以看出,平坦区域内佳学习率,从误差曲面可以看出,平坦区域内太小太小会使训练次数增加而希望增大会使训练次数增加而希望增大值;而在误差变化值;而在误差变化剧烈的区域,剧烈的区域,太大会因调整量过大而跨过较宰的太大会因调整量过大而跨过较宰的“坑坑凹凹”处,使训练出现振荡,反而使迭代次数增加。处,使训练出现振荡,反而使迭代次数增加。为了加速收敛过程,一个较好的思路是自适应改为了加速收敛过程,一个较好的思路是自适应改变学习率,使其该大时增大,该小时减小。变学习率,使其该大时

31、增大,该小时减小。第60页,共79页,编辑于2022年,星期二 通常调节学习速率的准则是:检查权值的修正值通常调节学习速率的准则是:检查权值的修正值是否真正降低了误差函数,如果确实如此,则说明是否真正降低了误差函数,如果确实如此,则说明所选取的学习速率值小了,可以对其增加一个量;所选取的学习速率值小了,可以对其增加一个量;若不是这样,而产生了过调,那么就应该减小学习若不是这样,而产生了过调,那么就应该减小学习速率的值。下式给出了一种自适应学习速率的调整速率的值。下式给出了一种自适应学习速率的调整公式:公式:MATLAB工具箱中带有自适应学习速率进行反向传播训练的工具箱中带有自适应学习速率进行反

32、向传播训练的函数为:函数为:trainbpa.m。它可以训练直至三层网络。它可以训练直至三层网络。使用方法为:使用方法为:W,B,epochs,TEtrainbpa(W,B,F,P,T,TP)第61页,共79页,编辑于2022年,星期二可以将动量法和自适应学习速率结合起来以利用两方可以将动量法和自适应学习速率结合起来以利用两方面的优点。这个技术已编入了函数面的优点。这个技术已编入了函数trainbpx.m之中。之中。这个函数的调用和其他函数一样,只是需要更多的初始这个函数的调用和其他函数一样,只是需要更多的初始参数而已:参数而已:TPdisp_freq max_epoch error_goal

33、 lr 1r_inc 1r_dec mom_const err_ratio;W,B,epochs,error;lrtrainbpx(W,B,F,P,T,TP)第62页,共79页,编辑于2022年,星期二本章小结 1)反反向向传传播播法法可可以以用用来来训训练练具具有有可可微微激激活活函函数数的的多多层前向网络以进行函数逼近,模式分类等工作;层前向网络以进行函数逼近,模式分类等工作;2)反反向向传传播播网网络络的的结结构构不不完完全全受受所所要要解解决决的的问问题题所所限限制制。网网络络的的输输入入神神经经元元数数目目及及输输出出层层神神经经元元的的数数目目是是由由问问题题的的要要求求所所决决定

34、定的的,而而输输入入和和输输出出层层之之间间的的隐隐含含层层数数以以及及每每层层的的神神经经元元数数是是由由设设计计者者来决定的;来决定的;3)已已证证明明,两两层层S型型线线性性网网络络,如如果果S型型层层有有足足够够的的神神经经元元,则则能能够够训训练练出出任任意意输输入入和和输输出出之之间间的的有有理函数关系;理函数关系;第63页,共79页,编辑于2022年,星期二4)反反向向传传播播法法沿沿着着误误差差表表面面的的梯梯度度下下降降,使使网网络络误误差最小,网络有可能陷入局部极小值;差最小,网络有可能陷入局部极小值;5)附附加加动动量量法法使使反反向向传传播播减减少少了了网网络络在在误误

35、差差表表面面陷陷入入低谷的可能性并有助于减少训练时间;低谷的可能性并有助于减少训练时间;6)太太大大的的学学习习速速率率导导致致学学习习的的不不稳稳定定,太太小小值值又又导导致致极极长长的的训训练练时时间间。自自适适应应学学习习速速率率通通过过在在保保证证稳稳定定训训练练的的前前提提下下,达达到到了了合合理理的的高高速速率率,可可以以减减少训练时间;少训练时间;7)8090的的实实际际应应用用都都是是采采用用反反向向传传播播网网络络的的。改改进进技技术术可可以以用用来来使使反反向向传传播播法法更更加加容容易易实实现现并并需要更少的训练时间。需要更少的训练时间。第64页,共79页,编辑于2022

36、年,星期二 1985年年 Powell提提出出多多变变量量插插值值的的径径向向基基函函数(数(Radial Basis Function,RBF)方法;)方法;1988年年 Broomhead&Lowe将将 RBF应应 用用于神经网络于神经网络7.3 RBF神经网络第65页,共79页,编辑于2022年,星期二RBF网络网络径向基函数网络(径向基函数网络(Radial Basis Function,简称简称RBFNN)第66页,共79页,编辑于2022年,星期二x1x2xny1yp输输 入入输输 出出是一种三层前馈网络是一种三层前馈网络第67页,共79页,编辑于2022年,星期二网络特点:网络特

37、点:)结构相对简单)结构相对简单)在参数(节点数,)在参数(节点数,,)选择合适时,收敛速选择合适时,收敛速度快度快三层三层输入层输入层隐层隐层神经元函数多采用高斯函数神经元函数多采用高斯函数输出层输出层线性神经元函数线性神经元函数第68页,共79页,编辑于2022年,星期二构成构成RBF网络的基本思想:网络的基本思想:1)用)用RBF作为隐单元的作为隐单元的“基基”构成隐构成隐含层空间,将输入矢量直接映射到隐空含层空间,将输入矢量直接映射到隐空间(不通过权连接);间(不通过权连接);2)网络输出时隐单元输出的线性加权)网络输出时隐单元输出的线性加权和,(通过权连接可调参数)和,(通过权连接可

38、调参数)输入输入 隐层隐层 输出输出 非线性非线性 线性线性 (高斯核函数)(高斯核函数)第69页,共79页,编辑于2022年,星期二c该激活函数具有局部感受能力,只有输入落入某个该激活函数具有局部感受能力,只有输入落入某个范围内,才有明显输出,不象范围内,才有明显输出,不象BP,输入在(输入在(,)均有输出。)均有输出。第70页,共79页,编辑于2022年,星期二隐含层节点核函数作用:隐含层节点核函数作用:对输入信号在局部产生响应对输入信号在局部产生响应第71页,共79页,编辑于2022年,星期二网络输出采用高斯基函数的优点:采用高斯基函数的优点:1)表示形式简单)表示形式简单2)径向对称)

39、径向对称3)光滑性好,任意阶导数存在)光滑性好,任意阶导数存在4)便于进行理论分析)便于进行理论分析第72页,共79页,编辑于2022年,星期二学习过程分为两个阶段:第一阶段第一阶段无教师学习(根据样本决无教师学习(根据样本决定隐含层各节点的高斯核函数的中心向定隐含层各节点的高斯核函数的中心向量量ci和标准化常数和标准化常数bi)第二阶段第二阶段有教师学习(求权值有教师学习(求权值wki)RBF网络的学习算法:网络的学习算法:)无教师(监督)学习)无教师(监督)学习修改修改j,j)有教师(监督)学习有教师(监督)学习修改修改wj,j第73页,共79页,编辑于2022年,星期二无教师学习阶段将训

40、练样本集中的输入向量分为若干族,在每个数将训练样本集中的输入向量分为若干族,在每个数据族内找出一个径向基函数中心向量,使得该族内据族内找出一个径向基函数中心向量,使得该族内各样本向量距该族中心的距离最小各样本向量距该族中心的距离最小算法步骤:算法步骤:1)给定初始中心向量和判定停止计算的)给定初始中心向量和判定停止计算的2)计算距离并求最小距离节点)计算距离并求最小距离节点3)调整中心)调整中心4)判定聚类质量)判定聚类质量第74页,共79页,编辑于2022年,星期二BPBP全局逼近的神经网络全局逼近的神经网络RBFRBF局部逼近的神经网络局部逼近的神经网络BP算法:在函数逼近时算法:在函数逼

41、近时采用负梯度下降法调采用负梯度下降法调节权值节权值 缺点:收敛速度慢;局部极小值缺点:收敛速度慢;局部极小值RBF算法:按时间片训练网络,局部逼近,可以算法:按时间片训练网络,局部逼近,可以以任意精度逼近任一连续函数。以任意精度逼近任一连续函数。第75页,共79页,编辑于2022年,星期二BP与与RBF结构的区别:结构的区别:隐含层隐含层激发函数激发函数第76页,共79页,编辑于2022年,星期二RBF结构:结构:具有单隐含层的两层前向网络,具有单隐含层的两层前向网络,隐含层的激发函数:隐含层的激发函数:RBF结构比较结构比较第77页,共79页,编辑于2022年,星期二 反传(反传(BPBP

42、)网络的结构图)网络的结构图 一个输入层,一个输出层,多个隐层。一个输入层,一个输出层,多个隐层。jpp1xp1x pnt pkt pmOp1O pnOp2隐层wj1wjn输入层输入层隐层隐层输出层输出层信息流pm激发函数:激发函数:S函数函数第78页,共79页,编辑于2022年,星期二RBF网络有关问题RBF与与BP主要不同点在非线性映射上采用了不同的作主要不同点在非线性映射上采用了不同的作用函数用函数RBF网络具有唯一最佳逼近,无局部极小网络具有唯一最佳逼近,无局部极小RBF网络难点在于中心向量和标准化常数的求解网络难点在于中心向量和标准化常数的求解如何选择合适径向基函数,如何确定隐节点数无解如何选择合适径向基函数,如何确定隐节点数无解决办法决办法由于隐节点的中心难求,影响其发展推广由于隐节点的中心难求,影响其发展推广RBF学习速度快,适于在线实时控制学习速度快,适于在线实时控制第79页,共79页,编辑于2022年,星期二

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 大学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁