卷积神经网络CNN代码解析matlab.docx

上传人:叶*** 文档编号:35576671 上传时间:2022-08-22 格式:DOCX 页数:3 大小:77.02KB
返回 下载 相关 举报
卷积神经网络CNN代码解析matlab.docx_第1页
第1页 / 共3页
卷积神经网络CNN代码解析matlab.docx_第2页
第2页 / 共3页
点击查看更多>>
资源描述

《卷积神经网络CNN代码解析matlab.docx》由会员分享,可在线阅读,更多相关《卷积神经网络CNN代码解析matlab.docx(3页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、 卷积神经网络CNN代码解析 deepLearnToolbox-master是一个深度学习matlab包,里面含有很多机器学习算法,如卷积神经网络CNN,深度信念网络DBN,自动编码AutoEncoder堆栈SAE,卷积CAE的作者是 Rasmus Berg Palm ()代码下载:这里我们介绍deepLearnToolbox-master中的CNN局部。DeepLearnToolbox-master中CNN内的 函数:调用关系为:该模型使用了mnist的数字作为训练样本,作为cnn的一个使用样例,每个样本特征为一个28*28=的向量。网络构造为:让我们来看看各个函数:一、Test_examp

2、le_CNN:25671011一、 Test_example_CNN:Test_example_CNN:1设置CNN的根本参数规格,如卷积、降采样层的数量,卷积核的大小、降采样的降幅2 cnnsetup函数 初始化卷积核、偏置等3 cnntrain函数 训练cnn,把训练数据分成batch,然后调用3.1 cnnff 完成训练的前向过程,3.2 cnnbp计算并传递神经网络的error,并计算梯度权重的修改量3.3 cnnapplygrads 把计算出来的梯度加到原始模型上去4 cnntest 函数,测试当前模型的准确率该模型采用的数据为mnist_uint8.mat,含有70000个手写数字

3、样本其中60000作为训练样本,10000作为测试样本。把数据转成相应的格式,并归一化。设置网络构造及训练参数初始化网络,对数据进展批训练,验证模型准确率绘制均方误差曲线该函数你用于初始化CNN的参数。设置各层的mapsize大小,初始化卷积层的卷积核、bias尾部单层感知机的参数设置bias统一设置为0权重设置为:-11之间的随机数/sqrt6/输入神经元数量+输出神经元数量对于卷积核权重,输入输出为fan_in, fan_outfan_out = net.layersl.outputmaps * net.layersl.kernelsize 2;%卷积核初始化,1层卷积为1*6个卷积核,2

4、层卷积一共6*12=72个卷积核。对于每个卷积输出featuremap, %fan_in = 表示该层的一个输出map,所对应的所有卷积核,包含的神经元的总数。1*25,6*25fan_in = numInputmaps * net.layersl.kernelsize 2;fin =1*25 or 6*25fout=1*6*25 or 6*12*25 net.layersl.kij = (rand(net.layersl.kernelsize) - 0.5) * 2 * sqrt(6 / (fan_in + fan_out);1 卷积降采样的参数初始化2尾部单层感知机的参数权重和偏量设置:三

5、、cn该函数用于训练CNN。生成随机序列,每次选取一个batch50个样本进展训练。批训练:计算50个随机样本的梯度,求和之后一次性更新到模型权重中。在批训练过程中调用:Cnnff.m 完成前向过程Cnnbp.m 完成误差传导和梯度计算过程 把计算出来的梯度加到原始模型上去四、1、取得CNN的输入2、两次卷积核降采样层处理3、尾部单层感知机的数据处理,需要把subFeatureMap2连接成为一个(4*4)*12=192的向量,但是由于采用了50样本批训练的方法,subFeatureMap2被拼合成为一个192*50的特征向量fv;Fv作为单层感知机的输入,全连接的方式得到输出层五、cnnbp

6、.m该函数实现2局部功能,计算并传递误差,计算梯度1、计算误差和LossFunction2、 计算尾部单层感知机的误差3、 把单层感知机的输入层featureVector的误差矩阵,恢复为subFeatureMap2的4*4二维矩阵形式插播一张图片:4、 误差在特征提取网络【卷积降采样层】的传播如果本层是卷积层,它的误差是从后一层降采样层传过来,误差传播实际上是用降采样的反向过程,也就是降采样层的误差复制为2*2=4份。卷积层的输入是经过sigmoid处理的,所以,从降采样层扩大来的误差要经过sigmoid求导处理。如果本层是降采样层,他的误差是从后一层卷积层传过来,误差传播实际是用卷积的反向过程,也就是卷积层的误差,反卷积卷积核转180度卷积层的误差,原理参看插图。5、 计算特征抽取层和尾部单层感知机的梯度五、c该函数完成权重修改,更新模型的功能1更新特征抽取层的权重 weight+bias2 更新末尾单层感知机的权重 weight+bias六、验证测试样本的准确率

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 初中资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁