《我的人工神经网络-6 BP网络.ppt》由会员分享,可在线阅读,更多相关《我的人工神经网络-6 BP网络.ppt(61页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、武汉工程大学计算机学院武汉工程大学计算机学院第第6 6章章BPBP神经网络神经网络一、内容回顾二、BP网络三、网络设计四、改进BP网络五、内容小结内容安排内容安排2武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院一、内容回顾一、内容回顾 感知机自适应线性元件3武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院一、内容回顾一、内容回顾 感知机感知机简介神经元模型网络结构功能解释学习和训练局限性自适应线性元件4武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院一、内容回顾一、内容回顾 感知机自适应线性元件Adline简介网络结构网络学习网络训练5武汉工程
2、大学计算机科学与工程学院武汉工程大学计算机科学与工程学院内容回顾内容回顾:学习算法学习算法l离散单输出感知器训练算法离散单输出感知器训练算法W=W+X;W=W-XW=W+(Y-O)Xl离散多输出感知器训练算法离散多输出感知器训练算法Wj=Wj+(yj-oj)Xl连续多输出感知器训练算法连续多输出感知器训练算法wij=wij+(yj-oj)xi6武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院内容回顾内容回顾:线性不可分问题线性不可分问题ax+by=1yx1(0,0)(1,1)线性不可分问题的克服线性不可分问题的克服两级网络可以划分出封闭或开放的凸域两级网络可以划分出封闭或开放的
3、凸域多级网将可以识别出非凸域多级网将可以识别出非凸域隐藏层的联接权的调整问题是非常关键隐藏层的联接权的调整问题是非常关键7武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.1 BP网络简介2.2 网络模型2.3 学习规则2.4 图形解释2.5 网络训练二、二、BP网络网络8武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.1 BP网络简介网络简介1、BP算法的出现算法的出现非循环多级网络的训练算法非循环多级网络的训练算法UCSD PDP小小组组的的Rumelhart、Hinton和和Williams1986年年独立地给出了独立地给出了BP算法清楚而简单的描述
4、算法清楚而简单的描述1982年,年,Paker就完成了相似的工作就完成了相似的工作1974年,年,Werbos已提出了该方法已提出了该方法2、弱弱点点:训训练练速速度度非非常常慢慢、局局部部极极小小点点的的逃逃离离问问题题、算法不一定收敛。算法不一定收敛。3、优点:、优点:广泛的适应性和有效性。广泛的适应性和有效性。9武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院反向传播网络(Back-Propagation Network,简称BP网络)是将W-H学习规则一般化,对非线性可微分函数进行权值训练的多层网络 权值的调整采用反向传播(Back-propagation)的学习算法它
5、是一种多层前向反馈神经网络,其神经元的变换函数是S型函数输出量为0到1之间的连续量,它可实现从输入到输出的任意的非线性映射2.1 BP网络简介网络简介10武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.1 BP网络简介网络简介lBP网络主要用于下述方面函数逼近:用输入矢量和相应的输出矢量训练一个网络逼近一个函数模式识别和分类:用一个特定的输出矢量将它与输入矢量联系起来;把输入矢量以所定义的合适方式进行分类;数据压缩:减少输出矢量维数以便于传输或存储l具有强泛化性能:使网络平滑地学习函数,使网络能够合理地响应被训练以外的输入 l泛化性能只对被训练的输入输出对最大值范围内的数据
6、有效,即网络具有内插值特性,不具有外插值性。超出最大训练值的输入必将产生大的输出误差11武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.2 网络模型网络模型一个具有r个输入和一个隐含层的神经网络模型结构 12武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.2 网络模型网络模型l感知器和自适应线性元件的主要差别在激活函数上:前者是二值型的,后者是线性的lBP网络具有一层或多层隐含层,除了在多层网络上与前面已介绍过的模型有不同外,其主要差别也表现在激活函数上。lBP网络的激活函数必须是处处可微的,因此它不能采用二值型的阀值函数0,1或符号函数1,1lBP网络
7、经常使用的是S型的对数或正切激活函数和线性函数13武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.2 网络模型网络模型lBP网络特点输入和输出是并行的模拟量网络的输入输出关系是各层连接的权因子决定,没有固定的算法权因子通过学习信号调节。学习越多,网络越聪明隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响只有当希望对网络的输出进行限制,如限制在0和1之间,那么在输出层应当包含S型激活函数在一般情况下,均是在隐含层采用S型激活函数,而输出层采用线性激活函数14武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.2 网络模型网络模型lS型
8、函数具有非线性放大系数功能,可以把输入从负无穷大到正无穷大的信号,变换成-1到l之间输出l对较大的输入信号,放大系数较小;而对较小的输入信号,放大系数则较大l采用S型激活函数可以处理和逼近非线性输入/输出关系15武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院网络的拓扑结构网络的拓扑结构x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxnW(1)W(2)W(3)W(L)16武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院网络的拓扑结构网络的拓扑结构 1.BP网的结构网的结构2.2.输输入入向向量量、输输出出向向量量的的维维数数、网网络络隐隐藏藏层层的的层
9、层数和各个隐藏层神经元的个数的决定数和各个隐藏层神经元的个数的决定3.3.实实验验:增增加加隐隐藏藏层层的的层层数数和和隐隐藏藏层层神神经经元元个个数数不一定总能够提高网络精度和表达能力。不一定总能够提高网络精度和表达能力。4.4.BPBP网一般都选用二级网络。网一般都选用二级网络。17武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院网络的拓扑结构网络的拓扑结构x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxnWV18武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则lBP算法属于算法,是一种监督式的学习算法l主要思想对于q个输入
10、学习样本:P1,P2,Pq,已知与其对应的输出样本为:T1,T2,Tq使网络输出层的误差平方和达到最小用网络的实际输出A1,A2,Aq,与目标矢量T1,T2,Tq之间的误差修改其权值,使Am与期望的Tm,(ml,q)尽可能接近19武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则lBP算法是由两部分组成,信息的正向传递与误差的反向传播正向传播过程中,输入信息从输入层经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层神经元的状态如果在输出层未得到期望的输出,则计算输出层的误差变化值,然后转向反向传播,通过网络将误差信号沿原来的连接通路反传回来修改各层
11、神经元的权值直至达到期望目标20武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则l假设输入为P,输入神经元有r个,隐含层内有s1个神经元,激活函数为F1,输出层内有s2个神经元,对应的激活函数为F2,输出为A,目标矢量为T21武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则l信息的正向传递隐含层中第i个神经元的输出输出层第k个神经元的输出定义误差函数22武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则l利用梯度下降法求权值变化及误差的反向传播输出层的权值变化l其中l同理可得2
12、3武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则l利用梯度下降法求权值变化及误差的反向传播隐含层权值变化l其中l同理可得24武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.3 学习规则学习规则l对于f1为对数S型激活函数,l对于f2为线性激活函数25武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.4 误差反向传播图形解释误差反向传播图形解释l误差反向传播过程实际上是通过计算输出层的误差ek,然后将其与输出层激活函数的一阶导数f2相乘来求得kil由于隐含层中没有直接给出目标矢量,所以利用输出层的ki反向传递来求出隐
13、含层权值的变化量w2ki。然后计算l同样通过将ei与该层激活函数的一阶导数f1相乘,而求得ij,以此求出前层权值的变化量w1ijl如果前面还有隐含层,沿用上述同样方法依此类推,一直将输出误差ek逐层的反推算到第一层为止26武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.4 误差反向传播图形解释误差反向传播图形解释27武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.5 网络训练网络训练 样本:样本:(输入向量,理想输出向量输入向量,理想输出向量)权初始化:权初始化:“小随机数小随机数”与饱和状态;与饱和状态;“不同不同”保保证网络可以学。证网络可以学。1
14、1、向前传播阶段:、向前传播阶段:(1)从从样样本本集集中中取取一一个个样样本本(Xp,Yp),将将Xp输输入入网网络;络;(2)计算相应的实际输出)计算相应的实际输出Op:Op=Fl(F2(F1(XpW(1)W(2)W(L)28武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.5 网络训练网络训练 2 2、向后传播阶段、向后传播阶段误差传播阶段:误差传播阶段:(1)计算实际输出)计算实际输出Op与相应的理想输出与相应的理想输出Yp的差;的差;(2)按极小化误差的方式调整权矩阵。)按极小化误差的方式调整权矩阵。(3)网络关于第)网络关于第p p个样本的误差测度:个样本的误差测
15、度:(4)网络关于整个样本集的误差测度:网络关于整个样本集的误差测度:29武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.5 网络训练网络训练l训练BP网络,需要计算网络加权输入矢量以及网络输出和误差矢量,然后求误差平方和l当所训练矢量的误差平方和小于误差目标,训练停止;否则在输出层计算误差变化,且采用反向传播学习规则来调整权值,然后重复此过程l网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将以泛化方式给出输出结果30武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.5 网络训练网络训练l为了能够较好地掌握BP网络的训练过程,我们用两层网络为例来
16、叙述BP网络的训练步骤l初始化:用小的随机数初始化每一层的权值W和偏差B,保证网络不被大的加权输入饱和期望误差最小值error_goal最大循环次数max_epoch修正权值的学习速率1r,一般情况下k0.0l,0.731武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.5 网络训练网络训练l变量表达:计算网络各层输出矢量A1和A2以及网络误差EA1tansig(W1*P,B1);A2purelin(W2*A1,B2);ET-A;l权值修正:计算各层反传的误差变化D2和D1并计算各层权值的修正值以及新权值:D2deltalin(A2,E);D1deltatan(A1,D2,W
17、2);dlWl,dBllearnbp(P,D1,lr);dW2,dB21earnbp(A1,D2,1r);W1W1十dW1;B1B1十dBl;W2W2十dW2;B2B2十dB232武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院2.5 网络训练网络训练l计算权值修正后误差平方和SSEsumsqr(T-purelin(W2*tansig(W1*P,B1),B2)l检查:SSE是否小于err_goal。若是,训练结束;否则继续l以上所有的学习规则与训练的全过程,可以用函数trainbp.m来完成它的使用只需定义有关参数:显示间隔次数,最大循环次数,目标误差,以及学习速率。调用后返回
18、训练后权值,循环总数和最终误差TPdisp_freq max_epoch err_goal 1rW,B,epochs,errorstrainbp(W,B,F,P,T,TP)33武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院三、网络设计三、网络设计3.1 网络的层数3.2 隐含层神经元数3.3 初始权值的选取3.4 学习速率3.5 期望误差的选取3.6 应用举例3.7 局限性34武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.1 网络的层数网络的层数l理论上已经证明:具有偏差和至少一个S型隐含层加上一个线性输出层的网络,能够逼近任何有理函数 l增加层数主要可
19、以进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络权值的训练时间。l一般情况下应优先考虑增加隐含层中神经元数 l仅用具有非线性激活函数的单层网络来解决问题没有必要或效果不好35武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.2 隐含层神经元数隐含层神经元数l网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要比增加更多的隐含层简单得多l定理:实现任意N个输入向量构成的任何布尔函数的前向网络所需权系数数目为l在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,然后适当地加上一点余量36武汉工程大学计算机科学与工
20、程学院武汉工程大学计算机科学与工程学院3.3 3.3 初始权值的选取初始权值的选取l一般取初始权值在(-1,1)之间的随机数l威得罗等人在分析了两层网络是如何对一个函数进行训练后,提出一种选定初始权值的策略选择权值的量级为l在MATLAB工具箱中可采用函数nwlog.m或nwtan.m来初始化隐含层权值W1和B1。l其方法仅使用在第一隐含层的初始值的选取上,后面层的初始值仍然采用随机取数37武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.4 3.4 学习速率学习速率l学习速率决定每一次循环训练中所产生的权值变化量l大的学习速率可能导致系统的不稳定l小的学习速率导致较长的训练
21、时间,可能收敛很慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于最小误差值l所以在一般情况下,倾向于选取较小的学习速率以保证系统的稳定性。学习速率的选取范围在0.01-0.8之间38武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.5 3.5 期望误差值选取期望误差值选取l在设计网络的训练过程中,期望误差值也应当通过对比训练后确定一个合适的值l这个所谓的“合适”,是相对于所需要的隐含层的节点数来确定,因为较小的期望误差值是要靠增加隐含层的节点,以及训练时间来获得l一般情况下,作为对比,可以同时对两个不同期望误差值的网络进行训练,最后通过综合因素的考虑来确定采用其中一个
22、网络39武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.6 3.6 应用举例应用举例l求解函数逼近问题有21组单输入矢量和相对应的目标矢量,试设计神经网络来实现这对数组的函数关系P=-1:0.1:1T=-0.96 0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201测试集P2=-1:0.025:140武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程
23、学院3.6 3.6 应用举例应用举例目标矢量相对于输入矢量的图形 初始网络的输出曲线 41武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.6 3.6 应用举例应用举例训练1000次 2000次42武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.6 3.6 应用举例应用举例训练3000次 5000次43武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.7 几个问题的讨论几个问题的讨论 l收敛速度问题收敛速度问题 需要较长的训练时间需要较长的训练时间l局部极小点问题局部极小点问题 逃逃离离/避避开开局局部部极极小小点点:修修改改W、V的的初
24、初值值并并不不是是总有效。总有效。逃离逃离统计方法;统计方法;Wasserman,1986将将Cauchy训练训练与与BP算法结合起来,可以在保证训练速度不被降低的算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。情况下,找到全局极小点。44武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.7 几个问题的讨论几个问题的讨论 l网络瘫痪问题网络瘫痪问题 在训练中,权可能变得很大,这会使神经元的网络输在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数在此点入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,
25、此时的训练步长会变上的取值很小。根据相应式子,此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最终导得非常小,进而将导致训练速度降得非常低,最终导致网络停止收敛致网络停止收敛 l稳定性问题稳定性问题 用修改量的综合实施权的修改用修改量的综合实施权的修改连续变化的环境,它将变成无效的连续变化的环境,它将变成无效的 45武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院3.7 几个问题的讨论几个问题的讨论 l步长问题步长问题 BP网络的收敛是基于无穷小的权修改量网络的收敛是基于无穷小的权修改量步长太小,收敛就非常慢步长太小,收敛就非常慢步长太大,可能会导致网络的瘫痪和不稳定
26、步长太大,可能会导致网络的瘫痪和不稳定自适应步长,使得权修改量能随着网络的训练而不断自适应步长,使得权修改量能随着网络的训练而不断变化。变化。1988年,年,Wasserman 46武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院四四、BP网络的网络的改改进4.1 目标4.2 附加动量法4.3 误差函数改进 4.4 自适应学习速率47武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.1 4.1 目标目标加快训练速度避免陷入局部极小值48武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.2 4.2 附加动量法附加动量法 利用附加动量的作用则有可
27、能滑过局部极小值修正网络权值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响,其作用如同一个低通滤波器,它允许网络忽略网络上微小变化特性该方法是在反向传播法的基础上在每一个权值的变化上加上一项正比于前次权值变化量的值,并根据反向传播法来产生新的权值变化49武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.2 4.2 附加动量法附加动量法 带有附加动量因子的权值调节公式其中k为训练次数,mc为动量因子,一般取095左右附加动量法的实质是将最后一次权值变化的影响,通过一个动量因子来传递。当动量因子取值为零时,权值变化仅根据梯度下降法产生当动量因子取值为1时,新的
28、权值变化则是设置为最后一次权值的变化,而依梯度法产生的变化部分则被忽略掉了 促使权值的调节向着误差曲面底部的平均方向变化,当网络权值进入误差曲面底部的平坦区时,i将变得很小,于是,wij(k+1)wij(k),从而防止了wij=0的出现,有助于使网络从误差曲面的局部极小值中跳出 50武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.2 4.2 附加动量法附加动量法 在MATLAB工具箱中,带有动量因子的权值修正法是用函数learnbpm.m来实现的trainbpm.m可以训练一层直至三层的带有附加动量因子的反向传播网络下面是对单层网络使用函数trainbpm.m的情形:W,B
29、,epochs,errorstrainbpm(W,B,F,P,T,TP)51武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.3 4.3 误差函数改进误差函数改进当ak趋向1时,E趋向一个常数,即处于E的平坦区,f(n)0,可能造成完全训练的麻痹现象当一个网络的误差曲面存在着平坦区时,可以选用别的误差函数f(tk,ak)来代替(tk-ak)2的形式,只要其函数在ak=tk时能达到最小值52武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.3 4.3 误差函数改进误差函数改进包穆(Baum)等人于1988年提出一种误差函数为不会产生不能完全训练的麻痹现象53武
30、汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.3 4.3 误差函数改进误差函数改进与常规的误差函数的情况ij=f(n)(tk-ak)相比较,其中的f(n)项消失了当n增大,进入激活函数的平坦区,使f(n)0时,不会产生不能完全训练的麻痹现象但由于失去了f(n)对w的控制作用,过大的w又有可能导致网络过调或振荡 1989年,范尔曼(S.Fahlman)提出一种折中的方案,即取kf(n)+0.1(tk-ak)一方面恢复了f(n)的某些影响另一方面当|n|变大时,仍能保持k有一定的大小,从而避免了麻痹现象的发生 54武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院
31、4.4 4.4 自适应学习速率自适应学习速率通常调节学习速率的准则是,检查权值的修正值是否真正降低了误差函数,如果确实如此,则说明所选取的学习速率值小了,可以对其增加一个量;否则可认为产生过调,应该减小学习速率的值一种自适应学习速率的调整公式55武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院4.4 自适应学习速率自适应学习速率lMATLAB工具箱中带有自适应学习速率进行反向传播训练的函数为 trainbpa.m可训练直至三层网络。使用方法W,B,epochs,TEtrainbpa(W,B,F,P,T,TP)l可以将动量法和自适应学习速率结合起来以利用两方面的优点。这个技术已编
32、入了函数trainbpx.m之中函数的调用和其他函数一样,只是需要更多的初始参数而已TPdisp_freq max_epoch error_goal lr 1r_inc 1r_dec mom_const err_ratio;W,B,epochs,error;lrtrainbpx(W,B,F,P,T,TP)56武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院五五、内容小结、内容小结内容安排一、内容回顾二、BP网络三、网络设计四、改进BP网络57武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院五五、内容小结、内容小结l反向传播法可以用来训练具有可微激活函数的多层前向
33、网络,以进行函数逼近,模式分类等工作l反向传播网络的结构不完全受所要解决的问题所限制。网络的输入神经元数目及输出层神经元的数目是由问题的要求所决定输入和输出层之间的隐含层数以及每层的神经元数是由设计者来决定的l已经证明,两层S型线性网络,如果S型层有足够的神经元,则能够训练出任意输入和输出之间的有理函数关系58武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院五五、内容小结、内容小结l反向传播法沿着误差表面的梯度下降,使网络误差最小,网络有可能陷入局部极小值l附加动量法使反向传播减少了网络在误差表面陷入低谷的可能性并有助于减少训练时间l太大的学习速率导致学习的不稳定,太小值又导致极长的训练时间。自适应学习速率通过在保证稳定训练的前提下,达到了合理的高速率,可以减少训练时间l80-90的实际应用都是采用反向传播网络的。改进技术可以用来使反向传播法更加容易实现并需要更少的训练时间59武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院五五、内容小结、内容小结l下次讲课内容反馈网络lHopfield网络60武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院作作业 用BP神经网络对一个简单的非线性神经元进行训练。输入矢量 p=-3 2目标矢量 t=0.4 0.861武汉工程大学计算机科学与工程学院武汉工程大学计算机科学与工程学院