《2022年BP神经网络matlab例题集合 .pdf》由会员分享,可在线阅读,更多相关《2022年BP神经网络matlab例题集合 .pdf(5页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。只需模仿即可。就能轻松掌握。1、BP 网络构建(1)生成 BP 网络(,1 2.,1 2.,)netnewff PR S SSNlTFTFTFNlBTF BLF PFPR:由R维的输入样本最小最大值构成的2R维矩阵。1 2.S SSNl:各层的神经元个数。1 2.TFTFTFNl:各层的神经元传递函数。BTF:训练用函数的名称。(2)网络训练,(,)net tr Y E PfAftrain net P T Pi Ai VV TV(3)网络仿真,(,)Y PfAfE perfsim net P Pi Ai
2、 TBP 网络的训练函数训练方法训练函数梯度下降法traingd 有动量的梯度下降法traingdm 自适应 lr 梯度下降法traingda 自适应 lr 动量梯度下降法traingdx 弹性梯度下降法trainrp Fletcher-Reeves共轭梯度法traincgf Ploak-Ribiere 共轭梯度法traincgp Powell-Beale 共轭梯度法traincgb 量化共轭梯度法trainscg 拟牛顿算法trainbfg 一步正割算法trainoss Levenberg-Marquardt trainlm BP 网络训练参数训练参数参数介绍训练函数net.trainPar
3、am.epochs最大训练次数(缺省为10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.goal训练要求精度(缺省为0)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.lr学习率(缺省为0.01)traingd、
4、traingdm、traingda、名师资料总结-精品资料欢迎下载-名师精心整理-第 1 页,共 5 页 -学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.max_fail 最大失败次数(缺省为5)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainb
5、fg、trainoss、trainlm net.trainParam.min_grad 最 小 梯 度 要 求(缺 省 为1e-10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.show显示训练迭代过程(NaN 表示不显示,缺省为25)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、train
6、bfg、trainoss、trainlm net.trainParam.time 最大训练时间(缺省为inf)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.mc 动量因子(缺省0.9)traingdm、traingdx net.trainParam.lr_inc 学习率lr增长比(缺省为1.05)traingda、traingdx net.trainParam.lr_dec 学习率 lr 下降比(缺省为
7、 0.7)traingda、traingdx net.trainParam.max_perf_inc 表现函数增加最大比(缺省为 1.04)traingda、traingdx net.trainParam.delt_inc 权 值 变 化增 加量(缺省为1.2)trainrp net.trainParam.delt_dec 权 值 变 化减 小量(缺省为0.5)trainrp net.trainParam.delt0 初始权值变化(缺省为0.07)trainrp net.trainParam.deltamax 权 值 变 化最 大值(缺省为50.0)trainrp net.trainParam
8、.searchFcn 一维线性搜索方法(缺省为srchcha)traincgf、traincgp、traincgb、trainbfg、trainoss net.trainParam.sigma 因为二次求导对权值调整的影响参数(缺省值5.0e-5)trainscg net.trainParam.lambda Hessian 矩阵不确定性调节参数(缺省为5.0e-7)trainscg net.trainParam.men_reduc 控制计算机内存/速度的参量,内存较大设为1,否则设为 2(缺省为 1)trainlm net.trainParam.mu 的初始值(缺省为0.001)trainlm
9、 net.trainParam.mu_dec 的减小率(缺省为0.1)trainlm net.trainParam.mu_inc 的增长率(缺省为10)trainlm 名师资料总结-精品资料欢迎下载-名师精心整理-第 2 页,共 5 页 -学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。net.trainParam.mu_max 的最大值(缺省为1e10)trainlm 2、BP 网络举例举例 1、%traingd clear;clc;P=-1-1 2 2 4;0 5 0 5 7;T=-1-1 1 1-1;%利用 minmax函数求输入样本范围net
10、=newff(minmax(P),5,1,tansig,purelin,trainrp);net.trainParam.show=50;%net.trainParam.lr=0.05;net.trainParam.epochs=300;net.trainParam.goal=1e-5;net,tr=train(net,P,T);net.iw1,1%隐层权值net.b1%隐层阈值net.lw2,1%输出层权值net.b2%输出层阈值sim(net,P)举例 2、利用三层 BP 神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。样本数据:输入 X 输出 D 输入 X 输出 D 输入 X
11、 输出 D-1.0000-0.9602-0.3000 0.1336 0.4000 0.3072-0.9000-0.5770-0.2000-0.2013 0.5000 0.3960-0.8000-0.0729-0.1000-0.4344 0.6000 0.3449-0.7000 0.3771 0-0.5000 0.7000 0.1816-0.6000 0.6405 0.1000-0.3930 0.8000-0.3120-0.5000 0.6600 0.2000-0.1647 0.9000-0.2189-0.4000 0.4609 0.3000-0.0988 1.0000-0.3201 解:看到期
12、望输出的范围是1,1,所以利用双极性Sigmoid 函数作为转移函数。程序如下:clear;clc;X=-1:0.1:1;D=-0.9602-0.5770-0.0729 0.3771 0.6405 0.6600 0.4609.0.1336-0.2013-0.4344-0.5000-0.3930-0.1647-.0988.名师资料总结-精品资料欢迎下载-名师精心整理-第 3 页,共 5 页 -学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。0.3072 0.3960 0.3449 0.1816-0.312-0.2189-0.3201;figure;pl
13、ot(X,D,*);%绘制原始数据分布图(附录:1-1)net=newff(-1 1,5 1,tansig,tansig);net.trainParam.epochs=100;%训练的最大次数net.trainParam.goal=0.005;%全局最小误差net=train(net,X,D);O=sim(net,X);figure;plot(X,D,*,X,O);%绘制训练后得到的结果和误差曲线(附录:1-2、1-3)V=net.iw1,1%输入层到中间层权值theta1=net.b1%中间层各神经元阈值W=net.lw2,1%中间层到输出层权值theta2=net.b2%输出层各神经元阈值
14、所得结果如下:输入层到中间层的权值:-9.1669 7.3448 7.3761 4.8966 3.5409TV中间层各神经元的阈值:6.5885 -2.4019 -0.9962 1.5303 3.2731T中间层到输出层的权值:0.3427 0.2135 0.2981 -0.8840 1.9134W输出层各神经元的阈值:-1.5271T举例 3、利用三层 BP 神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。样本数据:输入 X 输出 D 输入 X 输出 D 输入 X 输出 D 0 0 4 4 8 2 1 1 5 3 9 3 2 2 6 2 10 4 3 3 7 1 解:看到期望输
15、出的范围超出1,1,所以输出层神经元利用线性函数作为转移函数。程序如下:clear;clc;X=0 1 2 3 4 5 6 7 8 9 10;D=0 1 2 3 4 3 2 1 2 3 4;figure;plot(X,D,*);%绘制原始数据分布图net=newff(0 10,5 1,tansig,purelin)net.trainParam.epochs=100;net.trainParam.goal=0.005;net=train(net,X,D);名师资料总结-精品资料欢迎下载-名师精心整理-第 4 页,共 5 页 -学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实
16、现自己需要完成的任务。O=sim(net,X);figure;plot(X,D,*,X,O);%绘制训练后得到的结果和误差曲线(附录:2-2、2-3)V=net.iw1,1%输入层到中间层权值theta1=net.b1%中间层各神经元阈值W=net.lw2,1%中间层到输出层权值theta2=net.b2%输出层各神经元阈值所得结果如下:输入层到中间层的权值:0.8584 2.0890 -1.2166 0.2752 -0.3910TV中间层各神经元的阈值:-14.0302 -9.8340 7.4331 -2.0135 0.5610T中间层到输出层的权值:-0.4675 -1.1234 2.32
17、08 4.6402 -2.2686W输出层各神经元的阈值:1.7623T问题:以下是上证指数2009 年 2 月 2 日到 3 月 27 日的收盘价格,构建一个三层BP 神经网络,利用该组信号的6 个过去值预测信号的将来值。日期价格日期价格2009/02/02 2011.682 2009/03/02 2093.452 2009/02/03 2060.812 2009/03/03 2071.432 2009/02/04 2107.751 2009/03/04 2198.112 2009/02/05 2098.021 2009/03/05 2221.082 2009/02/06 2181.241
18、2009/03/06 2193.012 2009/02/09 2224.711 2009/03/09 2118.752 2009/02/10 2265.161 2009/03/10 2158.572 2009/02/11 2260.822 2009/03/11 2139.021 2009/02/12 2248.092 2009/03/12 2133.881 2009/02/13 2320.792 2009/03/13 2128.851 2009/02/16 2389.392 2009/03/16 2153.291 2009/02/17 2319.442 2009/03/17 2218.331
19、2009/02/18 2209.862 2009/03/18 2223.731 2009/02/19 2227.132 2009/03/19 2265.761 2009/02/20 2261.482 2009/03/20 2281.091 2009/02/23 2305.782 2009/03/23 2325.481 2009/02/24 2200.652 2009/03/24 2338.421 2009/02/25 2206.572 2009/03/25 2291.551 2009/02/26 2121.252 2009/03/26 2361.701 2009/02/27 2082.852 2009/03/27 2374.44 名师资料总结-精品资料欢迎下载-名师精心整理-第 5 页,共 5 页 -