BP人工神经网络及matlab实现ppt课件.ppt

上传人:飞****2 文档编号:29418203 上传时间:2022-07-30 格式:PPT 页数:190 大小:1.84MB
返回 下载 相关 举报
BP人工神经网络及matlab实现ppt课件.ppt_第1页
第1页 / 共190页
BP人工神经网络及matlab实现ppt课件.ppt_第2页
第2页 / 共190页
点击查看更多>>
资源描述

《BP人工神经网络及matlab实现ppt课件.ppt》由会员分享,可在线阅读,更多相关《BP人工神经网络及matlab实现ppt课件.ppt(190页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、BP人工神经人工神经网络网络本章的基本内容本章的基本内容nRumelhart,McClelland于于1985年提出了年提出了BP网络的误差网络的误差反向后传反向后传BP(Back Propagation)学习算法学习算法nBP算法基本原理算法基本原理q利用输出后的误差来估计输出层的直接前导层的误差,利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。反传下去,就获得了所有其他各层的误差估计。 J. McClelland David Rumelhart BP网络是一

2、种前向映射网络。网络的结构见下一页的图形。其中:u是网络的输入向量,y是网络的输出向量。神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层)。前层节点至后层节点通过权联接。 由于这种网络常常用BP学习算法后的网络权值,所以常称BP人工神经网络。5-1 网络结构和模型网络结构和模型5-1 网络结构和模型网络结构和模型 u y u y 5-1 网络结构与模型网络结构与模型 njuuu1 yx nw 1w )(xf 5-1 网络结构和模型网络结构和模型 BP网络的神经元模型是改进了感知器神经元模型得到的。输入层: 隐层:输出层:fxex( ) =+-11fxee

3、xx( ) =-+-11fxeexx( ) =-+-11fxex( ) =+-11( )f xkx=1,( )ijwf xx=5-2 BP网络的学习算法网络的学习算法 多层前馈网络的反向传播多层前馈网络的反向传播 (BPBP)学习算法,)学习算法,简称简称BPBP学习算法,这是一种有导师的学习算法学习算法,这是一种有导师的学习算法,是是梯度下降法梯度下降法在多层前馈网中的应用。在多层前馈网中的应用。 BPBP学习算法学习算法可以看成是线性自适应神经元学可以看成是线性自适应神经元学习算法的进一步推广。习算法的进一步推广。BPBP学习算法学习算法= =前向计算过程前向计算过程+ +误差反向传播过程

4、误差反向传播过程前向计算过程:也是网络应用时的实现过程。前向计算过程:也是网络应用时的实现过程。误差反向传播过程:是误差反向传播过程:是BP网络权值的学习和网络权值的学习和 训练过程。训练过程。5-2-1 BP5-2-1 BP学习算法概述学习算法概述n学习的类型:学习的类型:有导师学习有导师学习n核心思想:核心思想:q将将输出误差输出误差以某种形式以某种形式通过通过隐层隐层向向输入层输入层逐层反传逐层反传n学习的过程:学习的过程:q信号的正向传播信号的正向传播 误差的反向传播误差的反向传播将误差分摊给各层的所有将误差分摊给各层的所有单元各层单元的误单元各层单元的误差信号差信号修正各单元权修正各

5、单元权值值5-2 BP网络的学习算法网络的学习算法5-2-1 BP5-2-1 BP学习算法概述学习算法概述n正向传播:正向传播:q输入样本输入层各隐层输出层输入样本输入层各隐层输出层n判断是否转入反向传播阶段:判断是否转入反向传播阶段:q若输出层的实际输出与期望的输出(教师信号)不符若输出层的实际输出与期望的输出(教师信号)不符n误差反传误差反传q误差以某种形式在各层表示修正各层单元的权值误差以某种形式在各层表示修正各层单元的权值n网络输出的误差减少到可接受的程度网络输出的误差减少到可接受的程度 或者进行到预先设定的学习次数为止或者进行到预先设定的学习次数为止5-2 BP网络的学习算法网络的学

6、习算法5-2-1 BP5-2-1 BP学习算法概述学习算法概述n网络结构网络结构 输入层有输入层有n n个神经元,隐含层有个神经元,隐含层有p p个神经元,输出个神经元,输出层有层有q q个神经元。个神经元。n变量定义变量定义q输入向量输入向量; ;q隐含层输入向量;隐含层输入向量;q隐含层输出向量隐含层输出向量; ;q输出层输入向量输出层输入向量; ;q输出层输出向量输出层输出向量; ;q期望输出向量期望输出向量; ; 12,nxxx=Lx12,phihihi=hi12,pho hoho=ho12,qyiyiyi=yi12,qyo yoyo=yo12,qddd=odL5-2 BP网络的学习算

7、法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述q输入层与中间层的连接权值:q隐含层与输出层的连接权值:q隐含层各神经元的阈值:q输出层各神经元的阈值:q样本数据个数:q激活函数: q误差函数:ihwf( ) howhb1,2,km=ob211( )( )2qoooedkyo k=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第一步,网络初始化第一步,网络初始化 给各连接权值分别赋一个区间(给各连接权值分别赋一个区间(-1,1)内的随机)内的随机数,设定误差函数数,设定误差函数e,给定计算精度值,给定计算精度

8、值 和最大学和最大学习次数习次数M。n第二步第二步,随机选取第随机选取第 个输入样本及对应期望个输入样本及对应期望输出输出 k12( )( ),( ),( )nkx k x kx k=x12( )( ),( ),( )qkd kdkdk=od5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第三步,计算隐含层各神经元的输入和输出第三步,计算隐含层各神经元的输入和输出1( )( )1,2,nhih ihihi kw x kbhp=-=( )f( )1,2,hhho khi khp=1( )( )1,2,pohohohyi kw ho kboq=

9、-=( )f( )1,2,ooyo kyi koq=5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第四步,利用网络期望输出和实际输出,计算第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数误差函数对输出层的各神经元的偏导数 。 ohoohoyieewyiw=( )( )( )phohoohhhohow ho kbyi kho kww-=211( )( )2( )( )( )( )( )f( )( )qooooooooooood kyo ked kyo k yokyiyid kyo kyi kk=-=-=-( )ok

10、5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第五步,利用隐含层到输出层的连接权值、输第五步,利用隐含层到输出层的连接权值、输出层的出层的 和隐含层的输出计算误差函数对隐和隐含层的输出计算误差函数对隐含层各神经元的偏导数含层各神经元的偏导数 。 ( )( )oohhoohoyieek ho kwyiw= -1( )( )( )( )( )hihhihnihihhiiihihhi keewhi kww x kbhi kx kww=-=( )hk( )ok5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学

11、习算法的描述21212111( )( ) )( )2( )( )( )1( )f( ) )( )2( )( )1( )f( ) )( )2( )( )qooohhhhqooohhhqpohohoohhhhdkyokhokehikhokhikdkyikhokhokhikdkw hokbhokhokhik=-=-=-=11( )( )( )f ( )( )( )f ( )( )qhooohoohqohohhoho kdkyo kyi kwhi kk whi kk= -= -5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第六步,利用输出层各神经

12、元的第六步,利用输出层各神经元的 和隐含层各和隐含层各神经元的输出来修正连接权值神经元的输出来修正连接权值 。 n第七步,利用隐含层各神经元的第七步,利用隐含层各神经元的 和输入层各和输入层各神经元的输入修正连接权。神经元的输入修正连接权。 1( )( )( )( )( )hoohhoNNhohoohewkk ho kwwwk ho k+= -=+( )ok( )howk( )hk1( )( )( ) ( )( )( ) ( )hihhiihhihNNihihhihi keewkk x kwhi kwwwk x k+= -= -=+5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2

13、-2 BP学习算法的描述学习算法的描述n第八步,计算全局误差第八步,计算全局误差n第九步,判断网络误差是否满足要求。当误差第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学应的期望输出,返回到第三步,进入下一轮学习。习。 2111( )( )2qmookoEdky km=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述 情况一的直观表达情况一的直观表

14、达 当误差对权值的当误差对权值的偏导数大于零时,权偏导数大于零时,权值调整量为负,实际值调整量为负,实际输出大于期望输出,输出大于期望输出,权值向减少方向调整,权值向减少方向调整,使得实际输出与期望使得实际输出与期望输出的差减少。输出的差减少。whohoewe0,此时,此时who05-2 BP网络的学习算法网络的学习算法5-2-3 BP5-2-3 BP学习算法的直观解释学习算法的直观解释 情况二的直观表达情况二的直观表达当误差对权值的偏导数当误差对权值的偏导数小于零时,权值调整量小于零时,权值调整量为正,实际输出少于期为正,实际输出少于期望输出,权值向增大方望输出,权值向增大方向调整,使得实际

15、输出向调整,使得实际输出与期望输出的差减少。与期望输出的差减少。hoewe0who5-2 BP网络的学习算法网络的学习算法5-2-3 BP5-2-3 BP学习算法的直观解释学习算法的直观解释nBPBP算法算法手控手控演示演示函函 数数 名名功功 能能newff()生成一个前馈生成一个前馈BP网络网络tansig()双曲正切双曲正切S型型(Tan-Sigmoid)传输函数传输函数logsig()对数对数S型型(Log-Sigmoid)传输函数传输函数traingd()梯度下降梯度下降BP训练函数训练函数5-3-1 BP5-3-1 BP神经网络的重要函数神经网络的重要函数5-3 BP神经网络的重要

16、函数和基本功能神经网络的重要函数和基本功能qnewff()n功能功能 建立一个前向建立一个前向BP网络网络n格式格式 net = newff(PR,S1 S2.SN1,TF1 TF2.TFN1,BTF,BLF,PF)n说明说明 net为创建的新为创建的新BP神经网络;神经网络;PR为网络输入取向为网络输入取向量取值范围的矩阵;量取值范围的矩阵;S1 S2SNl表示网络隐含层和输表示网络隐含层和输出层神经元的个数;出层神经元的个数;TFl TF2TFN1表示网络隐含层表示网络隐含层和输出层的传输函数,默认为和输出层的传输函数,默认为tansig;BTF表示网络表示网络的训练函数,默认为的训练函数

17、,默认为trainlm;BLF表示网络的权值表示网络的权值学习函数,默认为学习函数,默认为learngdm;PF表示性能数,默认表示性能数,默认为为mse。 5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能5-3-2 BP5-3-2 BP神经网络中函数的基本功能神经网络中函数的基本功能 qtansig()n功能功能 正切正切sigmoid激活函数激活函数n格式格式 a = tansig(n)n说明说明 双曲正切双曲正切Sigmoid函数把神函数把神经元的输入范围从经元的输入范围从(-,+)映射映射到到(-1,1)。它是可导函数,适用。它是可导函数,适用于于BP训练的神经元。

18、训练的神经元。qlogsig()n功能功能 对数对数Sigmoid激活函数激活函数n格式格式 a = logsig(N)n说明对数说明对数Sigmoid函数把神经元函数把神经元的输入范围从的输入范围从(-,+)映射到映射到(0,1)。它是可导函数,适用于。它是可导函数,适用于BP训训练的神经元。练的神经元。5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能5-3-2 BP5-3-2 BP神经网络中函数的基本功能神经网络中函数的基本功能 下表为某药品的销售情况,现构建一个如下的三层下表为某药品的销售情况,现构建一个如下的三层BP神经网神经网络对药品的销售进行预测:输入层有三个结

19、点,隐含层结点数为络对药品的销售进行预测:输入层有三个结点,隐含层结点数为5,隐含层的激活函数为隐含层的激活函数为tansig;输出层结点数为;输出层结点数为1个,输出层的激活个,输出层的激活函数为函数为logsig,并利用此网络对药品的销售量进行预测,预测方法,并利用此网络对药品的销售量进行预测,预测方法采用滚动预测方式,即用前三个月的销售量来预测第四个月的销采用滚动预测方式,即用前三个月的销售量来预测第四个月的销售量,如用售量,如用1、2、3月的销售量为输入预测第月的销售量为输入预测第4个月的销售量,用个月的销售量,用2、3、4月的销售量为输入预测第月的销售量为输入预测第5个月的销售量个月

20、的销售量.如此反复直至满足如此反复直至满足预测精度要求为止。预测精度要求为止。 月份123456销量205623952600229816341600月份789101112销量1873147819001500204615565-4 一个简单的例子一个简单的例子%以每三个月的销售量经归一化处理后作为输入以每三个月的销售量经归一化处理后作为输入P=0.51520.81731.0000; 0.81731.00000.7308; 1.00000.73080.1390; 0.73080.13900.1087; 0.13900.10870.3520; 0.10870.35200.0000;%以第四个月的销售

21、量归一化处理后作为目标向量以第四个月的销售量归一化处理后作为目标向量T=0.7308 0.1390 0.1087 0.3520 0.0000 0.3761;%创建一个创建一个BP神经网络,每个输入向量的取值范围为神经网络,每个输入向量的取值范围为0 ,1, 5个隐层神经元,一个输出层神经元,隐层的激活函数个隐层神经元,一个输出层神经元,隐层的激活函数tansig,输出层激活函数,输出层激活函数logsig,训练函数为梯度下降函数。,训练函数为梯度下降函数。net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);net.trainParam.epochs

22、=15000;net.trainParam.goal=0.01;LP.lr=0.1; %设置学习速率为设置学习速率为0.1net=train(net,P,T); 5-4 一个简单的例子一个简单的例子 由对比图可以看出由对比图可以看出预测效果与实际存在预测效果与实际存在一定误差,此误差可一定误差,此误差可以通过增加运行步数以通过增加运行步数和提高预设误差精度和提高预设误差精度业进一步缩小。业进一步缩小。nBP网络应用于药品预测对比图网络应用于药品预测对比图5-4 一个简单的例子一个简单的例子n非线性映射能力非线性映射能力 能学习和存贮大量输入能学习和存贮大量输入- -输出模式映射关系,无需输出模

23、式映射关系,无需事先了解描述这种映射关系的数学方程。只要能提供事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式供网络进行学习训练,它便能完成足够多的样本模式供网络进行学习训练,它便能完成由由n n维输入空间到维输入空间到m m维输出空间的非线性映射。维输出空间的非线性映射。n泛化能力泛化能力 当向网络输入训练时未曾见过的非样本数据时,网当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。这种络也能完成由输入空间向输出空间的正确映射。这种能力称为泛化能力。能力称为泛化能力。n容错能力容错能力 输入样本中带有较大的误差甚至个别错误对网络的输入样本中带

24、有较大的误差甚至个别错误对网络的输入输出规律影响很小。输入输出规律影响很小。5-5 BP网络有关的几个问题网络有关的几个问题5-5 BP网络有关的几个问题网络有关的几个问题 (1) 实实现现输输入入/ /输输出出非非线线性性映映射射 若若输输入入、输输出出节节点点为为n、m 个个,实实现现的的是是n 维维至至m 维维欧欧式式空空间间的的映映射射: T RRnm:可可知知网网络络的的输输出出是是样样本本输输出出在在L2范范数数意意义义下下的的最最佳佳逼逼近近。BP 网网络络,通通过过若若干干简简单单非非线线性性处处理理单单元元的的复复合合映映射射,可可获获得得复复杂杂的的非非线线性性处处理理能能

25、力力。 (2)BP 学学习习算算法法的的数数学学分分析析 BP 算算法法用用了了优优化化算算法法中中的的梯梯度度下下降降法法,把把一一组组样样本本的的I/O 问问题题,变变为为非非线线性性优优化化问问题题,隐隐层层使使优优化化问问题题的的可可调调参参数数增增加加,使使解解更更精精确确。(3) 全局逼近网络全局逼近网络由取的作用函数可知,由取的作用函数可知,BP 网络是全局逼近网络,即网络是全局逼近网络,即f x( )在在 x 的相当大的域为非零值。的相当大的域为非零值。 (4) 学习算子学习算子 称梯度搜索算法的步长称梯度搜索算法的步长(收敛因子、学习算子),(收敛因子、学习算子),10,越大

26、,权值调整的越快,在不导致振荡情况越大,权值调整的越快,在不导致振荡情况下,下,可大一些。可大一些。5-5 BP网络有关的几个问题网络有关的几个问题 具有阻尼项的权值调整算法具有阻尼项的权值调整算法 为使学习速率足够大,又不易产生振荡,在权值调整算为使学习速率足够大,又不易产生振荡,在权值调整算法中,加阻尼项:法中,加阻尼项: wtwtJ twtwtwtijijijijij()( )( )( )( )()+=-+-11:阻尼系数:阻尼系数(平滑因子),(平滑因子),01。 变步长算法:变步长算法:/ t等等。 (5) 改进的改进的BP算法算法 梯度下降法的不足,是梯度下降法的不足,是BP算法收

27、敛速度慢的原因算法收敛速度慢的原因,有改进的,有改进的BP算法克服其不足,算法克服其不足,如:如:5-5 BP网络有关的几个问题网络有关的几个问题(6) 网网络络的的输输入入S 型型作作用用函函数数f x( )随随| |x| |的的增增大大,梯梯度度下下降降,即即| |fx( )| |减减小小,并并 0,不不利利于于权权值值的的调调整整。希希望望| |x| |工工作作在在较较小小区区域域,故故网网络络的的输输入入要要予予以以考考虑虑:若若实实际际问问题题给给以以网网络络的的输输入入量量较较大大,需需作作归归一一化化处处理理,则则网网络络输输出出也也要要进进行行相相应应的的处处理理。5-5 BP

28、网络有关的几个问题网络有关的几个问题 )()(1tJtJ 训练样本 t 测试数据 图 2-4-2 泛化能力示意图 (7) 泛化能力 泛化能力(综合能力、概括能力):用较少的样本进行训练,使网络能在给定的区域内达到要求的精度。故,没有泛化能力的网络无使用价值。 BP网络,泛化能力与样本、结构、初始权值等有关。 为得到较好的泛化能力,除了要有训练样本集外,还需测试集。 从图可见,随着训练次数的增加,训练集的J t ( )会减少,测试集的 J t1( )可能不减小或增大,说明泛化能力减弱。因此,可取测试集 J1的极小点对应的训练权系,以使网络具有较好的泛化能力。 J 全局极小点 局部极小点 图 2-

29、4-3 局部与全局极小点 (8) 训训练练误误差差网网络络的的训训练练误误差差在在最最后后一一个个样样本本处处最最小小。 (9) BP 算算法法已已成成 ANN 的的重重要要模模型型之之一一多多层层前前馈馈网网的的 BP 算算法法,已已成成为为神神经经网网络络的的重重要要模模型型之之一一,很很多多领领域域得得到到应应用用。在在自自动动控控制制中中,也也是是用用得得最最多多的的模模型型,如如在在非非线线性性系系统统辨辨识识、控控制制及及系系统统故故障障诊诊断断中中的的应应用用。(10) BP 算算法法的的不不足足 由由于于是是非非线线性性优优化化,就就会会存存在在局局部部极极小小问问题题,见见图

30、图 2-4-3。 学学习习算算法法的的收收敛敛速速度度慢慢,且且收收敛敛速速度度与与初初始始权权的的选选择择有有关关。 网网络络的的结结构构设设计计,即即隐隐层层及及节节点点数数的的选选择择,尚尚无无理理论论指指导导。 新新加加入入的的样样本本会会影影响响到到已已学学好好的的样样本本。5-6 改进的改进的BP网络的学习算法网络的学习算法单权值单权值双权值双权值 标准标准BPBP算法的误差算法的误差空间空间是是NN维空间中一个形状极为复杂维空间中一个形状极为复杂的曲面,该曲面上的每个点的的曲面,该曲面上的每个点的“高度高度”对应于一个误差值,对应于一个误差值,每个点的坐标向量对应着每个点的坐标向

31、量对应着NN个权值个权值5-6-1 5-6-1 问题的描述问题的描述5-6 改进的改进的BP网络的学习算法网络的学习算法nBP网络学习算法存在的问题q存在平坦区域影响-误差下降缓慢,影响收敛速度。原因-误差对权值的梯度变化小接近于零 由各节点的净输入过大而引起。n分析:激活函数为Sigmod函数5-6-1 5-6-1 问题的描述问题的描述5-6 改进的改进的BP网络的学习算法网络的学习算法n存在平坦区域的原因分析( )( )( )( )( )( )( )( )(1( )( )oohhoohoooooooooyieek hokwyiwkdkyokyokdkyokyokyok= -=-=-221(

32、 )()111( )(1)(1)( )(1( )oyiyiyioyiyiooyokfyieeeyokeeyokyok-=+-=+=-5-6-1 5-6-1 问题的描述问题的描述对应着误差的某个谷点对应着误差的某个谷点 对应着误差的平坦区对应着误差的平坦区 存在平坦区域的原因分析:q第一种可能是 充分接近q第二种可能是 充分接近0q么三种可能是 充分接近1 造成平坦区的原因: 各节点的净输入过大。5-6 改进的改进的BP网络的学习算法网络的学习算法( )oyo k( )odk( )oyo k( )oyo k 1.0 0.5 yi 0 ( )oyo k5-6-1 5-6-1 问题的描述问题的描述5

33、-6 改进的改进的BP网络的学习算法网络的学习算法n存在多个极小点q影响-易陷入局部最小点。原因:n以误差梯度下降为权值调整原则;n误差曲面上可能存在多个梯度为0的点,多数极小点都是局部极小,即使是全局极小往往也不是唯一的,使之无法辨别极小点的性质q导致的结果: 使得训练经常陷入某个局部极小点而不能自拔,从而使训练无法收敛于给定误差。5-6-1 5-6-1 问题的描述问题的描述n BP算法缺陷小结 易形成局部极小而得不到全局最优; 训练次数多使得学习效率低,收敛速度慢; 隐节点的选取缺乏理论指导; 训练时学习新样本有遗忘旧样本的趋势。 针对上述问题,国内外已提出不少有效的改进算法,下面将介绍其

34、中几种较常用的方法。5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-1 5-6-1 问题的描述问题的描述n在线学习方式时,网络受后面输入样本的影响较大,严重时,会影响用户要求的训练精度。为了消除这种样本顺序对结果的影响,可以采用批处理学习方式,即使用一批学习样本产生的总误差来调整权值,用公式表示如下:n解决了因样本输入顺序引起的精度问题和训练的抖动问题。但是,该算法的收敛速度相对来说还是比较慢的。 p1( )( )mijijohkwwk ho k=5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-2 5-6-2 消除样本输入顺序影响的改进算法消除样本输入顺序影响的改进算法

35、算算法法流程流程图图是是结束结束否否5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-2 5-6-2 消除样本输入顺序影响的改进算法消除样本输入顺序影响的改进算法n在反向传播法的基础上在每一个权值(或阈值)的变化上加上一项正比于上一次权值(或阈值)变化量的值,并根据反向传播法来产生新的权值(或阈值)变化 n带有附加动量因子的权值调节公式为 :n可以防止的出现即最后一次权值的变化量为0,有助于使网络从误差曲面的局部极小值中跳出。但对于大多数实际应用问题,该法训练速度仍然很慢。 nMATLAB中的工具函数traingdm()即对应于附加动量法。(1) (1)f( ( )( ( )(1)c

36、ckmkmkk+= -+-wwww5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 附加动量的改进算法附加动量的改进算法n采用自适应调整参数的改进算法的基本设想是学习率应根据误差变化而自适应调整,以使权系数调整向误差减小的方向变化,其迭代过程可表示为 :n在很小的情况下,采用自适应调整参数的改进算法仍然存在权值的修正量很小的问题,致使学习率降低。nMATLAB中的工具函数traingda()即对应于自适应调整参数法。 (1)( )f( ( )kkk+=- www5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 采用自适应调整参数的改进算法采用

37、自适应调整参数的改进算法nBP网络通常采用Sigmoid隐含层。当输入的函数很大时,斜率接近于零,这将导致算法中的梯度幅值很小,可能使网络权值的修正过程几乎停顿下来。弹性方法只取偏导数的符号,而不考虑偏导数的幅值。其权值修正的迭代过程可表示为 :n在弹性BP算法中,当训练发生振荡时,权值的变化量将减小;当在几次迭代过程中权值均朝一个方向变化时,权值的变化量将增大。因此,使用弹性方法的改进算法,其收敛速度要比前几种方法快得多 (1)( ) ( ( )(1)( f( ( )kkkksignk+ =-wwwww5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 使用弹性方法的

38、改进算法使用弹性方法的改进算法n梯度法的缺点是搜索过程收敛速度较慢,牛顿法在搜索方向上比梯度法有改进,它不仅利用了准则函数在搜索点的梯度,而且还利用了它的二次导数,就是说利用了搜索点所能提供的更多信息,使搜索方向能更好地指向最优点。它的迭代方程为 :n收敛速度比一阶梯度快,但计算又较复杂,比较典型的有BFGS拟牛顿法和一步正切拟牛顿法。nMATLAB中的工具函数trainbfg()、trainoss()即对应拟牛顿法中的BFGS拟牛顿法和一步正切拟牛顿法。 1(1)( )f( ( )kkk+=-wwDw5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 使用拟牛顿法的改

39、进算法使用拟牛顿法的改进算法n梯度下降法收敛速度较慢,而拟牛顿法计算又较复杂,共轭梯度法则力图避免两者的缺点。共轭梯度法也是一种改进搜索方向的方法,它是把前一点的梯度乘以适当的系数,加到该点的梯度上,得到新的搜索方向。其迭代方程为 :(1)( )( ) ( )kkk S k+=+ww( )f( ( )(1) (1)S kkkS k=-+-wv( )k 最佳步 22f( ( )(1)f( (1)kkk-=-wvw5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-7 5-6-7 基于共轭梯度法的改进算法基于共轭梯度法的改进算法n共轭梯度法比大多数常规的梯度下降法收敛快,并且只需增加很少的

40、存储量和计算量。n对于权值很多的网络,采用共轭梯度法不失为一种较好的选择。nMATLAB中的工具函数traincgb()、traincgf()、traincgp()即对应于共轭梯度法。 5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-7 5-6-7 基于共轭梯度法的改进算法基于共轭梯度法的改进算法演示演示q梯度下降法与改进算法的几何意义梯度下降法与改进算法的几何意义qBPBP算法在多层前馈网络中的应用算法在多层前馈网络中的应用5-6 改进的改进的BP网络的学习算法网络的学习算法例例 2-4-1 用用 BP 网网络络逼逼近近非非线线性性函函数数f ueuu( )sin(). (. )

41、=-+1 90 510取取 BP 网网络络N1 4 1, ,, 隐隐节节点点作作用用函函数数选选对对称称型型 S 函函数数, 输输出出节节点点为为线线性性;BP 算算法法,取取= 04 .;(1)训训练练输输入入样样本本集集 u=-0.5:0.05:0.45,图图 2-4-4(a)* *; 训训练练输输出出样样本本集集df u=( ),图图(b)* *, 样样本本集集长长度度20=L;(2)测测试试输输入入集集 u1=-0.48:0.05:0.47,图图(a)中中+ +;测测试试数数据据集集df u11=(),图图(b)中中+ +;(3)取随机非零初始权系,取随机非零初始权系,t=1 500

42、次训练,次训练,网络输出网络输出 y(o o)与训练输出样本集)与训练输出样本集d d(* *)比较见图)比较见图(c););(4)在测试集在测试集 u1 1 输入时,输入时,网络输出网络输出 y1 1(o o)与测试数据集)与测试数据集 d1 1(+ +)比较见图)比较见图(d););由图由图(c)知)知:网络的训练误差在第:网络的训练误差在第 L=20 个样本处个样本处(最后一个(最后一个样本)最小。样本)最小。(5)网网络络泛泛化化能能力力见见图图(e),J t ( ):训训练练集集目目标标函函数数(实实线线);Jt1( ):测测试试集集目目标标函函数数(虚虚线线),t =11 500;

43、由由图图(e)知知:1 1 0 00 00 0 次次训训练练后后,再再训训练练:网网络络的的J t ( )已已几几乎乎不不减减小小,说说明明网网络络的的权权系系值值已已几几乎乎不不调调整整了了。 0 500 1 000 1 500 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 J J1 (e) 图图2-4-4 BP网络训练例网络训练例n例例2-4-1 2-4-1 用用BPBP网络逼近非线性函数网络逼近非线性函数 手控手控 自控自控演示演示BP网络网络网络结构网络结构 u y 网络结构网络结构 u y u y 网络结构网络结构反向传播反向传播(BP)学习算法学习算法 u y 反

44、向传播反向传播(BP)(BP)学习算法学习算法n三层前馈网络:三层前馈网络:输入输入/输出样本对:输出样本对:up/dp p=1Lup dp反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法: 正向传播 输入输出 u y 反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法: 正向传播 输入输出 u y 反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法: 正向传播 反向传播 调整权系值 u y 反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法: 正向传播 反向传播调整权系值 u y n正向传播:由输入uP

45、 输出yP=Ng(up)反向传播反向传播(BP)(BP)学习算法学习算法 u y up dp反向传播反向传播(BP)(BP)学习算法学习算法 u y n正向传播:由输入uP 输出yP=Ng(up)up dp反向传播反向传播(BP)(BP)学习算法学习算法 u y n正向传播:由输入uP 输出yP=Ng(up)up dp反向传播反向传播(BP)(BP)学习算法学习算法 u y n正向传播:由输入uP 输出yP=Ng(up)up dp反向传播反向传播(BP)(BP)学习算法学习算法n正向传播:由输入uP 输出yP=Ng(up) u y up dp反向传播反向传播(BP)(BP)学习算法学习算法n正

46、向传播:由输入uP 输出yP=Ng(up) u y up dp反向传播反向传播(BP)(BP)学习算法学习算法n正向传播:由输入uP 输出yP=Ng(up) u y up dp反向传播反向传播(BP)(BP)学习算法学习算法n反向传播: 调整权系值 u y 反向传播反向传播(BP)(BP)学习算法学习算法n反向传播: 调整权系值 u y 反向传播反向传播(BP)(BP)学习算法学习算法正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 反向反向 u y 反向反向 u y 返回返回BP网络例例6-16-1

47、非线性函数 非线性函数: f ueuu( )sin(). (. )=-+1 90 510 输入输出样本集输入输出测试集样本集测试集 N1,4,1 网络结构网络学习网络学习0网络学习网络学习1网络学习网络学习2网络学习网络学习3网络学习网络学习4网络学习网络学习5网络学习网络学习6网络学习网络学习7网络学习网络学习8网络学习网络学习9学习结束学习结束 J1梯度下降法梯度下降法与改进算法搜索寻优J(W)J(W)局部极小点全局极小点J(W)初始状态梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索J(W)局部极小点J(W)局部极小点J(W)局部极小点J(W)局部极小

48、点改进算法搜索J(W)J(W)初始状态梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索全局极小点全局极小点全局极小点返回返回梯度下降法梯度下降法搜索寻优原理由初始状态搜索寻优搜索寻优目标函数曲面J(W) -连续、可微全局极小点局部极小点1局部极小点1局部极小点2局部极小点2目标函数曲面J(W) -连续目标函数曲面J(W) -连续、可微由初始状态1起搜索初始状态1搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降目标函数全局极小点目标函数全局极小点目标函数全局极小点目标函数全局极小点由初始状态2起寻优初始状态2搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降目标函数局部极小点2目标函数局部极小点2目标函数局部极小点2目标函数局部极小点2目标函数局部极小点2

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 教案示例

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁