《2022年BP神经网络matlab实例简单而经典.docx》由会员分享,可在线阅读,更多相关《2022年BP神经网络matlab实例简单而经典.docx(13页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -p=p1;t=t1; pn,minp,maxp,tn,mint,maxt=premnmxp,t; %原始数据归一化BP 网络net=newffminmaxpn,5,1,tansig,purelin,traingdx;%设置网络 ,建立相应的net.trainParam.show=2000; % 训练网络net.trainParam.lr=0.01; net.trainParam.epochs=100000; net.trainParam.goal=1e-5; net,tr=trainnet ,pn,tn; %
2、调用 TRAINGDM算法训练BP网络pnew=pnew1; pnewn=tramnmxpnew,minp,maxp; anewn=simnet,pnewn; %对 BP 网络进行仿真 anew=postmnmxanewn,mint,maxt; %仍原数据 y=anew; 1、BP 网络构建(1)生成 BP 网络netnewffPR S S , 1 2.SNl,TF1 TF2. TFNl,BTF BLF PFPR:由 R维的输入样本最小最大值构成的R2维矩阵; 1 2.SNl :各层的神经元个数;TF1 TF2. TFNl:各层的神经元传递函数;BTF :训练用函数的名称;(2)网络训练net
3、 tr Y E Pf,Af train net P T Pi Ai VV TV(3)网络仿真Y Pf,Af E perf sim net P Pi Ai Ttansig,purelin,trainrpBP 网络的训练函数训练方法训练函数 第 1 页,共 7 页 梯度下降法traingd 有动量的梯度下降法traingdm 自适应 lr 梯度下降法traingda 自适应 lr 动量梯度下降法traingdx 弹性梯度下降法trainrp Fletcher-Reeves 共轭梯度法traincgf Ploak-Ribiere 共轭梯度法traincgp 细心整理归纳 精选学习资料 - - - -
4、 - - - - - - - - - - - - - - - - - - - - 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -Powell-Beale 共轭梯度法 traincgb 量化共轭梯度法 trainscg 拟牛顿算法 trainbfg 一步正割算法 trainoss Levenberg-Marquardt trainlm BP 网络训练参数训练参数参数介绍10)训练函数net.trainParam.epochs最大训练次数(缺省为traingd 、traingdm 、traingda、traingdx 、trainrp 、 traincgf、
5、traincgp 、traincgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.goal训练要求精度(缺省为0)traingd 、traingdm 、traingda、traingdx 、trainrp 、 traincgf、traincgp 、traincgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.lr学习率(缺省为0.01)traingd 、traingdm 、traingda、traingdx 、trainrp 、 traincgf、traincgp 、trai
6、ncgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.max_fail 最大失败次数(缺省为5)traingd 、traingdm 、traingda、traingdx 、trainrp 、 traincgf、traincgp 、traincgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.min_grad 最 小 梯 度 要 求 ( 缺 省 为traingd 、traingdm 、traingda、1e-10)traingdx 、trainrp 、 traincgf、tra
7、incgp 、traincgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.show显示训练迭代过程(NaN 表traingd 、traingdm 、traingda、示不显示,缺省为25)traingdx 、trainrp 、 traincgf、traincgp 、traincgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.time 最大训练时间(缺省为inf )traingd 、traingdm 、traingda、traingdx 、trainrp 、 traincg
8、f、traincgp 、traincgb 、trainscg、trainbfg 、trainoss、trainlm net.trainParam.mc 动量因子(缺省0.9)traingdm 、traingdx net.trainParam.lr_inc 学习率lr增长比(缺省为traingda、traingdx 1.05)net.trainParam.lr_dec 学习率 lr 下降比(缺省为 0.7) traingda、traingdx net.trainParam.max_perf_inc 表现函数增加最大比(缺省traingda、traingdx 为 1.04)net.trainPar
9、am.delt_inc 权 值 变 化增 加量 ( 缺省为trainrp 1.2)细心整理归纳 精选学习资料 - - - - - - - - - - - - - - - 第 2 页,共 7 页 - - - - - - - - - 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -net.trainParam.delt_dec 权 值 变 化减 小量 ( 缺省为trainrp 0.5)net.trainParam.delt0 初始权值变化 (缺省为 0.07) trainrp net.trainParam.deltamax 权 值 变 化最 大值 ( 缺省为
10、trainrp 50.0)net.trainParam.searchFcn 一维线性搜寻方法(缺省为traincgf 、traincgp 、traincgb、net.trainParam.sigma srchcha)trainbfg 、trainoss 由于二次求导对权值调整的trainscg net.trainParam.lambda 影响参数(缺省值5.0e-5)trainscg Hessian 矩阵不确定性调剂net.trainParam.men_reduc 参数(缺省为5.0e-7)trainlm 掌握运算机内存/速度的参量,内存较大设为1,否就设为 2(缺省为 1)net.train
11、Param.mu 的初始值(缺省为0.001) trainlm net.trainParam.mu_dec 的减小率(缺省为0.1)trainlm net.trainParam.mu_inc 的增长率(缺省为10)trainlm net.trainParam.mu_max 的最大值(缺省为1e10)trainlm 2、BP 网络举例 举例 1、%traingd clear; clc; P=-1 -1 2 2 4;0 5 0 5 7; T=-1 -1 1 1 -1; %利用 minmax 函数求输入样本范畴 net = newffminmaxP,5,1,tansig,purelin,trainr
12、p; net.trainParam.show=50;% net.trainParam.lr=0.05; net.trainParam.epochs=300; net.trainParam.goal=1e-5; net,tr=trainnet,P,T; net.iw1,1% 隐层权值 net.b1% 隐层阈值net.lw2,1% 输出层权值 net.b2% 输出层阈值simnet,P 举例 2、利用三层 BP 神经网络来完成非线性函数的靠近任务,样本数据:其中隐层神经元个数为五个;细心整理归纳 精选学习资料 - - - - - - - - - - - - - - - 第 3 页,共 7 页 -
13、- - - - - - - - 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -输入 X 输出 D 输入 X 输出 D 输入 X 输出 D -1.0000 -0.9602 -0.3000 0.1336 0.4000 0.3072 -0.9000 -0.5770 -0.2000 -0.2022 0.5000 0.3960 -0.8000 -0.0729 -0.1000 -0.4344 0.6000 0.3449 -0.7000 0.3771 0 -0.5000 0.7000 0.1816 -0.6000 0.6405 0.1000 -0.3930 0.800
14、0 -0.3120 -0.5000 0.6600 0.2000 -0.1647 0.9000 -0.2189 -0.4000 0.4609 0.3000 -0.0988 1.0000 -0.3201 解:看到期望输出的范畴是1,1 ,所以利用双极性Sigmoid 函数作为转移函数;程序如下:clear;clc;X=-1:0.1:1;D=-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609. 0.1336 -0.2022 -0.4344 -0.5000 -0.3930 -0.1647 -.0988 0.3072 0.3960 0.3449 0.1
15、816 -0.312 -0.2189 -0.3201;figure; plotX,D, * ; % 绘制原始数据分布图(附录:1-1 )net = newff-1 1,5 1, tansig , tansig ;net.trainParam.epochs = 100; % 训练的最大次数net.trainParam.goal = 0.005; % 全局最小误差net = trainnet,X,D; O = simnet,X; figure; plotX,D,*,X,O; % 绘制训练后得到的结果和误差曲线(附录:1-2 、1-3 )V = net.iw1,1%输入层到中间层权值theta1 =
16、 net.b1%中间层各神经元阈值W = net.lw2,1%中间层到输出层权值theta2 = net.b2%输出层各神经元阈值所得结果如下:输入层到中间层的权值:VT-9.1669 7.3448 7.3761 4.8966 3.5409中间层各神经元的阈值:T 6.5885 -2.4019 -0.9962 1.5303 3.2731中间层到输出层的权值:W0.3427 0.2135 0.2981 -0.8840 1.9134输出层各神经元的阈值:T-1.5271举例 3、利用三层 BP 神经网络来完成非线性函数的靠近任务,样本数据:其中隐层神经元个数为五个;细心整理归纳 精选学习资料 输入
17、 X 输出 D 输入 X 输出 D 输入 X 输出 D 第 4 页,共 7 页 0 0 4 4 8 2 - - - - - - - - - - - - - - - - - - - - - - - - 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -1 1 5 3 9 3 2 2 6 2 10 4 3 3 7 1 解:看到期望输出的范畴超出 程序如下:clear; clc;1,1,所以输出层神经元利用线性函数作为转移函数;X = 0 1 2 3 4 5 6 7 8 9 10; D = 0 1 2 3 4 3 2 1 2 3 4; figure; plotX,
18、D,*; % 绘制原始数据分布图, purelinnet = newff0 10,5 1,tansignet.trainParam.epochs = 100; net.trainParam.goal=0.005; net=trainnet,X,D; O=simnet,X; figure;plotX,D,*,X,O; % 绘制训练后得到的结果和误差曲线(附录:2-2 、2-3 )V = net.iw1,1%输入层到中间层权值theta1 = net.b1%中间层各神经元阈值W = net.lw2,1%中间层到输出层权值theta2 = net.b2%输出层各神经元阈值所得结果如下:输入层到中间层
19、的权值:VT 0.8584 2.0890 -1.2166 0.2752 -0.3910中间层各神经元的阈值:T-14.0302 -9.8340 7.4331 -2.0135 0.5610中间层到输出层的权值:W-0.4675 -1.1234 2.3208 4.6402 -2.2686 第 5 页,共 7 页 - - - - - - - - - 输出层各神经元的阈值:T1.7623问题:以下是上证指数2022 年 2 月 2 日到 3 月 27 日的收盘价格,构建一个三层BP 神经网络,利用该组信号的6 个过去值猜测信号的将来值;日期价格日期价格2022/02/02 2022.682 2022/
20、03/02 2093.452 2022/02/03 2060.812 2022/03/03 2071.432 2022/02/04 2107.751 2022/03/04 2198.112 2022/02/05 2098.021 2022/03/05 2221.082 2022/02/06 2181.241 2022/03/06 2193.012 2022/02/09 2224.711 2022/03/09 2118.752 2022/02/10 2265.161 2022/03/10 2158.572 细心整理归纳 精选学习资料 - - - - - - - - - - - - - - -名师
21、归纳总结 精品学习资料 - - - - - - - - - - - - - - -2022/02/11 2260.822 2022/03/11 2139.021 2022/02/12 ;2248.092 2022/03/12 2133.881 2022/02/13 2320.792 2022/03/13 2128.851 2022/02/16 2389.392 2022/03/16 2153.291 2022/02/17 2319.442 2022/03/17 2218.331 2022/02/18 2209.862 2022/03/18 2223.731 2022/02/19 2227.13
22、2 2022/03/19 2265.761 2022/02/20 2261.482 2022/03/20 2281.091 2022/02/23 2305.782 2022/03/23 2325.481 2022/02/24 2200.652 2022/03/24 2338.421 2022/02/25 2206.572 2022/03/25 2291.551 2022/02/26 2121.252 2022/03/26 2361.701 2022/02/27 2082.852 2022/03/27 2374.44 load data3_1.txtm,n=size data3_1; tsx =
23、 data3_11:m-1,1; tsx=tsx; ts = data3_12:m,1; ts=ts; TSX,TSXps=mapminmaxtsx,1,2; TS,TSps=mapminmaxts,1,2; TSX=TSX;figure;plotts,LineWidth,2;, FontSize,12;title 到杭旅行总人数1999.01.01-2022.12.31xlabel 统计年份 1990.12.19-2022.08.19, FontSize,12;ylabel 归一化后的总游客数/ 万人 , FontSize,12;grid on ;% 生成 BP网络、利用 minmax 函数
24、求输入样本范畴net_1=newffminmaxTS,10,1,tansig, purelin, traincgf% 设置训练参数net_1.trainParam.show = 50; %显示训练迭代过程(NaN表示不显示,缺省25 ) 第 6 页,共 7 页 net_1.trainParam.lr = 0.025; %学习率(缺省 0.01 )net_1.trainParam.mc = 0.9; %动量因子(缺省0.9 )net_1.trainParam.epochs = 10000; %最大训练次数net_1.trainParam.goal = 0.001; %训练要求精度细心整理归纳 精
25、选学习资料 - - - - - - - - - - - - - - - - - - - - - - - - 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -inputWeights=net_1.IW1,1 %输入层权值inputbias=net_1.b1 %输入层阈值layerWeights=net_1.LW2,1 %输出层权值layerbias=net_1.b2 %输出层阈值TS,TSX% 网络训练net_1,tr=trainnet_1,TS,TSX;细心整理归纳 精选学习资料 - - - - - - - - - - - - - - - 第 7 页,共 7 页 - - - - - - - - -