误差反传算法精.ppt

上传人:石*** 文档编号:78744464 上传时间:2023-03-19 格式:PPT 页数:11 大小:1.11MB
返回 下载 相关 举报
误差反传算法精.ppt_第1页
第1页 / 共11页
误差反传算法精.ppt_第2页
第2页 / 共11页
点击查看更多>>
资源描述

《误差反传算法精.ppt》由会员分享,可在线阅读,更多相关《误差反传算法精.ppt(11页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、要点要点1.BP算法的基本思想2.基于BP算法的多层感知器模型3.标准BP算法的改进第1页,本讲稿共11页11、BP算法的基本思想 学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传入,经各隐层逐层处理后,传向输出层。若输出层的实际输出与期望的输出不符,则转入误差的反向传播阶段。误差反传是将输出误差以某种形成通过隐层向输入层逐层反传,并将误差摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这种信号正向传播与误差反向传播的各层权值调整过程,是周而复始地进行的。权值不断调整的过程,也就是网络的学习训练过程。此过程一直进行到网络

2、输出的误差减少到可接受的程度,或进行到预先设定的次数为止。第2页,本讲稿共11页22、基于BP算法的多层感知器模型第3页,本讲稿共11页32、基于BP算法的多层感知器模型三层感知器中,输入向量为图中是为隐层神经元引入阈值而设置的;隐层输出向量为,图中是为 输出层神经元引入阈值而设置的,输出层输出向量为;期望输出向量为。输入层到隐层之间的权值矩阵用V V表示,其中列向量为隐层第个神经元对应的权向量;隐层到输出层之间的权值矩阵用表示,其中列向量为输出层第个神经元对应的权向量。第4页,本讲稿共11页4对于输出层,有对于隐层,有以上两式中,变换函数均为单极性Sigmoid函数具有连续、可导的特点,且有

3、第5页,本讲稿共11页5根据需要,也可以采用双极性Sigmoid函数(或称双曲线正切函数)网络误差与权值调整当网络输出与期望输出不等时,存在输出误差,定义如下将以上误差定义式展开至隐层,有进一步展开至输入层,有第6页,本讲稿共11页6由以上可以看出,网络输入误差是各层权值的函数,因此调整权值可改变误差显然,调整权值的原则是使误差不断地减少,因此应使权值的调整量与误差的梯度下降成正比,即第7页,本讲稿共11页7标准BP算法的改进存在的缺陷:u易形成局部极小而得不到全局最优;u训练次数多使得学习效率低,收敛速度慢;u隐节点的选取缺乏理论指导;u训练时学习新样本有遗忘旧样本的趋势第8页,本讲稿共11

4、页8改进方法:增加动量项;自适应调整学习率;引入陡度因子增加动量项:为了考虑t时刻之前的梯度方向。若用W代表某层权矩阵,X代表某层输入向量,则含有动量项的权值调整向量表达式为自适应调节学习率从误差曲面可以看出,在平坦区域内太小会使训练次数增加,因而希望增大值;而在误差变化剧烈的区域,太大会因调整量过大而跨过较窄的“凹坑”处,使训练出现振荡,反而使迭代次数增加。第9页,本讲稿共11页9设一初始学习率,若经过一批次权值调整后使总误差增大,则本次调整无效,且;若经过一批次权值调整后使总误差减少,则本次调整有效,且引入陡度因子 误差曲面上存在着平坦区域。权值调整进入平坦区的原因是神经元输入了变换函数的饱和区。如果在调整进入平坦区后,设法压缩神经元的净输入,使其输出退出变换函数的饱和区,就可以改变误差函数的形状,从而使调整摆脱平坦区。实现这一思路的做法是,在原变换函数中引入一个陡度因子第10页,本讲稿共11页10第11页,本讲稿共11页11

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 大学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁