2022年神经网络算法BP网络的训练函数 .pdf

上传人:H****o 文档编号:32428454 上传时间:2022-08-09 格式:PDF 页数:5 大小:95.34KB
返回 下载 相关 举报
2022年神经网络算法BP网络的训练函数 .pdf_第1页
第1页 / 共5页
2022年神经网络算法BP网络的训练函数 .pdf_第2页
第2页 / 共5页
点击查看更多>>
资源描述

《2022年神经网络算法BP网络的训练函数 .pdf》由会员分享,可在线阅读,更多相关《2022年神经网络算法BP网络的训练函数 .pdf(5页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、BP 网络的训练函数训练方法训练函数梯度下降法traingd 有动量的梯度下降法traingdm 自适应 lr 梯度下降法traingda 自适应 lr 动量梯度下降法traingdx 弹性梯度下降法trainrp Fletcher-Reeves共轭梯度法traincgf Ploak-Ribiere 共轭梯度法traincgp Powell-Beale 共轭梯度法traincgb 量化共轭梯度法trainscg 拟牛顿算法trainbfg 一步正割算法trainoss Levenberg-Marquardt trainlm BP 网络训练参数训练参数参数介绍训练函数net.trainParam

2、.epochs最大训练次数(缺省为10)traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg 、trainoss、trainlm net.trainParam.goal训练要求精度(缺省为0)traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg 、trainoss、trainlm net.trainParam.lr学习率(缺省为0.0

3、1)traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg 、trainoss、trainlm net.trainParam.max_fail 最大失败次数(缺省为5)traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg 、trainoss、trainlm net.trainParam.min_grad 最 小 梯 度 要 求 ( 缺

4、省 为1e-10)traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg 、trainoss、trainlm net.trainParam.show显示训练迭代过程(NaN 表示不显示,缺省为25)traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg 、trainoss、trainlm net.trainParam.time 最大训练时

5、间(缺省为inf )traingd 、 traingdm 、 traingda、traingdx 、trainrp、traincgf、traincgp、traincgb、trainscg、名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 1 页,共 5 页 - - - - - - - - - trainbfg 、trainoss、trainlm net.trainParam.mc 动量因子(缺省0.9)traingdm 、traingdx net.trainParam.lr_inc 学

6、习率lr增长比(缺省为1.05)traingda、traingdx net.trainParam.lr_dec 学习率 lr 下降比 (缺省为 0.7) traingda、traingdx net.trainParam.max_perf_inc 表现函数增加最大比(缺省为 1.04)traingda、traingdx net.trainParam.delt_inc 权 值 变 化增 加量 ( 缺省为1.2)trainrp net.trainParam.delt_dec 权 值 变 化减 小量 ( 缺省为0.5)trainrp net.trainParam.delt0 初始权值变化 (缺省为0.

7、07) trainrp net.trainParam.deltamax 权 值 变 化最 大值 ( 缺省为50.0)trainrp net.trainParam.searchFcn 一维线性搜索方法(缺省为srchcha)traincgf 、traincgp、traincgb、trainbfg 、trainoss net.trainParam.sigma 因为二次求导对权值调整的影响参数(缺省值5.0e-5)trainscg net.trainParam.lambda Hessian 矩阵不确定性调节参数(缺省为5.0e-7)trainscg net.trainParam.men_reduc

8、控制计算机内存/速度的参量,内存较大设为1,否则设为 2(缺省为 1)trainlm net.trainParam.mu 的初始值(缺省为0.001)trainlm net.trainParam.mu_dec 的减小率(缺省为0.1)trainlm net.trainParam.mu_inc 的增长率(缺省为10)trainlm net.trainParam.mu_max 的最大值(缺省为1e10)trainlm 1、BP 网络构建(1)生成 BP 网络(, 1 2.,1 2.,)netnewff PR S SSNlTF TFTFNlBTF BLF PFPR:由R维的输入样本最小最大值构成的2

9、R维矩阵。 1 2.S SSNl:各层的神经元个数。1 2.TFTFTFNl:各层的神经元传递函数。BTF:训练用函数的名称。(2)网络训练, (, ,)net tr Y E Pf Aftrain net P T Pi Ai VV TV(3)网络仿真, (,)Y PfAf E perfsim net P Pi Ai T名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 2 页,共 5 页 - - - - - - - - - 2、BP 网络举例举例 1、%traingd clear; cl

10、c; P=-1 -1 2 2 4;0 5 0 5 7; T=-1 -1 1 1 -1; %利用 minmax函数求输入样本范围net = newff(minmax(P),5,1,tansig,purelin,trainrp); 说明:minmax(P):由 2 维 p 矩阵输入样本最小最大值构成的2*2 维矩阵。5,1:各层的神经元个数。tansig,purelin:各层的神经元传递函数。trainrp:训练用函数的名称。net.trainParam.show=50;%是多少个周期后显示一下收敛曲线的变化net.trainParam.lr=0.05;%训练速度net.trainParam.ep

11、ochs=300;%迭代次数net.trainParam.goal=1e-5;%指的是你要给这个网络设定要达到的误差值是多少net,tr=train(net,P,T); net.iw1,1%隐层权值net.b1%隐层阈值net.lw2,1%输出层权值net.b2%输出层阈值sim(net,P) 举例 2、利用三层 BP 神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。样本数据:输入 X 输出 D 输入 X 输出 D 输入 X 输出 D -1.0000 -0.9602 -0.3000 0.1336 0.4000 0.3072 -0.9000 -0.5770 -0.2000 -0.2

12、013 0.5000 0.3960 -0.8000 -0.0729 -0.1000 -0.4344 0.6000 0.3449 -0.7000 0.3771 0 -0.5000 0.7000 0.1816 -0.6000 0.6405 0.1000 -0.3930 0.8000 -0.3120 -0.5000 0.6600 0.2000 -0.1647 0.9000 -0.2189 -0.4000 0.4609 0.3000 -0.0988 1.0000 -0.3201 解:名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精

13、心整理 - - - - - - - 第 3 页,共 5 页 - - - - - - - - - 看到期望输出的范围是1,1,所以利用双极性Sigmoid 函数作为转移函数。程序如下:clear;clc;X=-1:0.1:1;D=-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609. 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988. 0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201;figure; plot(X,D,*); %绘制原始数

14、据分布图(附录:1-1 )net = newff(-1 1,5 1,tansig, tansig);net.trainParam.epochs = 100; %训练的最大次数net.trainParam.goal = 0.005; %全局最小误差net = train(net,X,D); O = sim(net,X); figure; plot(X,D,*,X,O); % 绘制训练后得到的结果和误差曲线(附录:1-2 、1-3 )V = net.iw1,1%输入层到中间层权值theta1 = net.b1% 中间层各神经元阈值W = net.lw2,1%中间层到输出层权值theta2 = ne

15、t.b2% 输出层各神经元阈值所得结果如下:输入层到中间层的权值:-9.1669 7.3448 7.3761 4.8966 3.5409TV中间层各神经元的阈值:6.5885 -2.4019 -0.9962 1.5303 3.2731T中间层到输出层的权值:0.3427 0.2135 0.2981 -0.8840 1.9134W输出层各神经元的阈值:-1.5271T举例 3、利用三层 BP 神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。样本数据:输入 X 输出 D 输入 X 输出 D 输入 X 输出 D 0 0 4 4 8 2 1 1 5 3 9 3 2 2 6 2 10 4

16、3 3 7 1 解:看到期望输出的范围超出1,1,所以输出层神经元利用线性函数作为转移函数。程序如下:clear; clc;名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 4 页,共 5 页 - - - - - - - - - X = 0 1 2 3 4 5 6 7 8 9 10;D = 0 1 2 3 4 3 2 1 2 3 4; figure; plot(X,D,*); %绘制原始数据分布图net = newff(0 10,5 1,tansig, purelin)net.trai

17、nParam.epochs = 100;net.trainParam.goal=0.005;net=train(net,X,D);O=sim(net,X);figure;plot(X,D,*,X,O); % 绘制训练后得到的结果和误差曲线(附录:2-2 、2-3 )V = net.iw1,1%输入层到中间层权值theta1 = net.b1% 中间层各神经元阈值W = net.lw2,1%中间层到输出层权值theta2 = net.b2% 输出层各神经元阈值所得结果如下:输入层到中间层的权值:0.8584 2.0890 -1.2166 0.2752 -0.3910TV中间层各神经元的阈值:-14.0302 -9.8340 7.4331 -2.0135 0.5610T中间层到输出层的权值:-0.4675 -1.1234 2.3208 4.6402 -2.2686W输出层各神经元的阈值:1.7623T名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 5 页,共 5 页 - - - - - - - - -

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 技术总结

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁