基于卷积神经网络的视差图生成技术-朱俊鹏.pdf

上传人:1890****070 文档编号:125197 上传时间:2018-05-14 格式:PDF 页数:6 大小:1.74MB
返回 下载 相关 举报
基于卷积神经网络的视差图生成技术-朱俊鹏.pdf_第1页
第1页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《基于卷积神经网络的视差图生成技术-朱俊鹏.pdf》由会员分享,可在线阅读,更多相关《基于卷积神经网络的视差图生成技术-朱俊鹏.pdf(6页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、Journal of Computer Applications计算机应用,2018,38(1):255259,289ISSN 10019081CODEN JYIIDU20180110http:wwwjocacn文章编号:10019081(2018)01025505 DOI:1011772jissn100190812017071659基于卷积神经网络的视差图生成技术朱俊鹏r,赵洪利2,杨海涛3(1装备学院研究生管理大队,北京101416; 2装备学院训练部,北京101416; 3装备学院复杂电子系统仿真实验室,北京101416)(通信作者电子邮箱523587076qqcorn)摘要:针对裸眼三

2、维中视差图生成过程中存在的高成本、长耗时以及容易出现背景空洞的问题,提出了一种基于卷积神经网络(CNN)学习预测的算法。首先通过对数据集的训练学习,掌握数据集中的变化规律;然后对输入卷积神经网络中的左视图进行特征提取和预测,得到深度值连续的深度图像;其次将预测所得到的每一个深度图和原图进行卷积,将生成的多个立体图像对进行叠加,最终形成右视图。仿真结果表明:该算法的像素重构尺寸误差相比基于水平视差的三维显示算法和深度图像视点绘制的算法降低了1282和1052,且背景空洞、背景粘连等问题都得到了明显改善。实验结果表明,卷积神经网络能提高视差图生成的图像质量。关键词:裸眼三维;视差图;背景空洞;特征

3、提取;卷积神经网络中图分类号:TP391413 文献标志码:ADisparity map generation technology based on convolutional neural networkZHU Junpengr,ZHAO Hongli2,YANG Haita03(1Department of Graduate Management,gquipment Academy,Beijing 101416,China;2Training Department,Equipment Academy,Beijing 101416,China;3。Complex Electronic跏抛m

4、 Simulation Laboratory,Equipment Academy,Beijing 101416,China)Abstract:Focusing on the issues such as hi【gh cost,long time consumption and background holes in the disparity map innaked-eye 3D applications,learning and prediction algorithm based on Convolutional Neural Network(CNN)was introducedFirst

5、ly,the change rules of a dataset could be mastered through training and learning the datasetSecondly,the depth mapwith continuous lasting depth value Was attained by extracting and predicting the features of the left view in the input CNNFinally,the right view Was produced by the superposition of di

6、verse stereo pairs after folding the predicted depth and originalmapsThe simulation results show that the pixelwise reconstruction error of the proposed algorithm is 1282and 1052lower than that of 3D horizontal disparity algorithm and depth image-based rendering algorithmIn addition,the problems ofb

7、ackground hole and background adhesion have been gready improvedThe experimental results show that CNN can improvethe image quality of disparity mapsKey words:nakedeye 3D;disparity map;background hole;feature extraction;Convolutional Neural Network(CNN)0 引言 网络的训练难度和训练规模。裸眼三维技术,是基于硬件显示技术的发展而兴起的显示方法,即

8、人们在不使用三维辅助眼镜的前提下,通过裸眼观看到立体三维的效果,它有着比二维和普通三维显示更加逼真的便捷体验方式,目前在游戏、电影、广告、医疗、交通、军事等领域有着广泛的应用。从本质上说裸眼三维显示技术和普通的需要借助三维眼镜的三维显示技术最大的不同是前者将三维眼镜“戴”到了屏幕上,人眼在相应的范围里观看屏幕就能产生裸眼三维的效果,而并非两者在三维图像生成算法上的区别,同样的算法借助不同的方式,都能实现三维显示。卷积神经网络(Convohtional Neural Network,CNN)作为机器学习的一个分支,它是一个含有多隐层的人工神经网络,有着十分强大的特征提取能力,通过建立的训练模型从

9、原始输入端输入的数据中提取更具体、更本质的事物特征,从而有利于解决事物特征的分类和可视化分析。同时通过无监督学习算法实现对输入数据的分级表达,这样就能降低深度神经1研究现状与趋势l,1三维图像生成主流技术结合计算机图像处理技术,目前常见的裸眼三维视频生成方法主要有:基于水平视差的三维显示算法拉1、基于深度图像视点绘制(Depth Image-Based Rendering,DIBR)算法等主要的方法旧“J。基于水平视差的三维显示主要利用人眼的特性,在人们裸眼观察的前提下使显示设备呈现出具有空间深度的影像,在转换的过程中,通过平滑置换算法将右视图以全局视差6移动,通过反向映射得到左视图。水平视差

10、方法在处理过程中存在计算量过大、易出现空洞等现象且图像效果欠佳。具体的工作流程如图1所示,由原图生成的视差灰度图通过平滑置换方法生成视差序列图,由于视差图会产生空洞所以通过平滑粘连补图方法对视差图进行补图处理,将生成的左、右平滑灰度图再次通过置换生成左、右视差序列图,产收稿日期:20170705;修回日期:201709-03。 基金项目:装备学院校级基础研究项目(DXZTJCZZ一2013009)。作者简介:朱俊鹏(1993一),男(土家族),湖南张家界人,硕士研究生,主要研究方向:信息网络安全;赵洪利(1964一),男,北京人,教授,博士,主要研究方向:信息网络安全;杨海涛(1979一),男

11、,山东烟台人,副研究员,博士,主要研究方向:信息网络安全。万方数据256 计算机应用 第38卷生了粘连效果,接着通过消除粘连方法最终生成左眼视差图和右眼视差图,借助特殊的三维硬件显示设备就能实现图片的三维效果。DIBR技术的主要工作原理是通过参考图像及其相应的深度图合成具有新视点的视图,称之为新视图,新视图后续能够构成立体图像对,通过相关算法产生新视图,参考图像和深度图可分别通过普通摄像机和深度摄像机拍摄获得。在实际操作中,DIBR技术通过三维图像变换生成新视图,但新视图往往出现空洞现象。还需要在后续的操作中对图像进行补图处理。DIBR算法工作流程如图2所示,将参考图片和相应的深度图作为输入,

12、输入给DIBR,在DIBR算法中根据适当的参数生成多个视点的视图,在生成的视图中通常都包含了左视图、右视图以及在空间位置上对称的图像。再将生成的视图融合成一幅图像,通过硬件裸眼三维显示器,就能够实现裸眼三维的效果。平滑粘 平滑度图|=j列图K=j度图K=j嚣翟(左、右)厂 I(左、右)厂 【(左、右)r L里堡:缫溅献型鞭图1水平视差算法流程Fig1 Flow chart of horizontal disparity algorithm匾圃圆圃输入DIBR算法 多视点视图产生空洞深度l|使用II空间域II时空域图像|多视Il信息的ll信息的预处理l l点视频l陉洞填充l陉洞填充空洞填充方法图

13、2 DIBR算法工作流程Fig2 Flow chart of DIBR algorithm12三维图像生成趋势随着机器学习时代、大数据时代的到来,卷积神经网络(CNN)在图像处理方面的能力得到了广泛的应用,相比传统的方法,卷积神经网络对图像的处理能够避免出现图像空洞的问题,且具备计算速度更快、学习效果良好的优势。卷积神经网络模型提供了一种端到端的学习模型,模型中的参数可以通过传统的梯度下降方法进行训练,经过训练的卷积神经网络能够学习到图像中的特征,并且完成对图像特征的提取、分类以及预测。在图像分类、姿态估计、图像分割等多个计算机视觉领域中有着大量的研究和成果p J。将卷积神经网络引入视差图像的

14、生成是未来图像处理的一个全新方法,对于正在兴起的裸眼三维来说将起到极大的促进作用。卷积神经网络模型通过学习后对输入图像进行视差图片的生成过程,相比现有的方法既不会在转换过程中出现空洞,也不用对特征图进行补图处理,不仅确保精确性也提高了效率,从而降低对内部资源的消耗。2 卷积神经网络目前开源的神经网络学习系统有很多,本文使用的MXNet(Mix Net)学习系统包含卷积神经网络,是一种为了满足对二维输入数据的处理而专门设计的一种多层人工神经网络,每层网络都由多个二维平面组成,每个平面也由相对独立的多个神经元组成,两层相邻的神经元互相连接。卷积神经网络有着一个权值共享的网络结构使其更贴近生物神经网

15、络,与此同时通过调整网络的深度和广度可以改变网络的容量,因此,使其能更加有效地降低网络模型的复杂程度,具备更少的权值参数和网络层数,计算更加容易M J。典型的卷积神经网络主要由输入层、卷积层、上采样层、全连接层和输出层组成1。在本文中,将原始图像w作为卷积神经网络的输入数据,用Si表示卷积神经网络的第i层特征图,那么即有:墨=W (1)假设置是卷积层,那么S。的产生过程可以如下描述:S;=以Si_l o日i+b。) (2)其中:凰表示第i层卷积核的权值向量;“圆”符号表示卷积核与第il层特征图进行卷积运算,由于卷积运算的结果是存在一定偏移的,所以需要与第i层的偏移向量bi相加,最后经过非线性的

16、激励函数八算)最终得到第i层的特征图s;。卷积层之后通常是上采样层,上采样层根据相关的上采样规则对卷积完成后的特征图进行采样,这一层的主要任务是对特征图进行相应的降维处理,其次还要保持特征图的尺度不变特点。假设&是上采样层,即有:S=upsampling(Sf-I) (3)经过多层卷积层和上采样层的交替传递,通过全连接网络对提取出来的特征进行相关的分类,总结出输入的概率分布y。卷积神经网络实际上就是一个让原始矩阵(日0)进行多层数据变换和降维的过程,最后将得到的结果映射到新的数学特征表达模型中。如下:y(i)=P(=友l So:(曰,西) (4)其中f;为第i个标签类别,从式(4)中分析可得卷

17、积神经网络对输入数据进行训练的主要目的是最小化损失函数L(n,b)。输入&经过前向传导后通过损失函数计算出与期望值之间的差异,通常称为“残差”。常见的损失函数有均方误差(Mean Squared Error,MSE)函数以及负对数似然(NegativeLog Likelihood,NLL)函数等”J:, IMSE(H,6)=南(y(i)一矿(i)2(5)ylNLL(H,6)=一艺lg y(i) (6)在计算过程中会出现权值过度拟合的问题,损失函数最后通过增加范数来控制权值的过拟合,由参数A控制过拟合作用的强度H1:E(日,西)=L(H,b)+w1W (7)在训练过程中,通过使用梯度下降方法进行

18、卷积神经网络的优化。残差通过梯度下降进行反向传播,传播过程中更新卷积神经网络每一层的可训练参数(H,6)。学习速率参数田主要控制残差反向传播的强度一J:日f:日l一17鼍笋 (8)万方数据第1期 朱俊鹏等:基于卷积神经网络的视差图生成技术 2576。=6;一叼曼墨铲 (9)卷积神经网络的工作流程分为三步进行,主要是网络模型定义、网络训练和网络预测J。网络模型定义,指网络模型主要根据业务需求和数据的特征进行网络深度、功能的设计。网络训练,由于残差的反向传播能够对网络中的参数进行训练,导致训练中出现过拟合和梯度的消逝与爆炸等问题,最终影响了训练的收敛性能;目前针对此问题提出了很多方法,随着网络规模

19、和数据结构的不断扩大,也对相应的网络训练方法有了更高的要求。网络预测就是将输入数据通过前向传输,在每一层输出相应的特征图,最终将这些特征图作为全连接网络的输入,而全连接网络的输出就是基于输入的条件概率分布过程。3 关键技术将卷积神经网络引入裸眼三维图像的生成研究中,通过此网络训练生成特征图,将其叠加得到深度图,具有保真度高的特征。当前对于裸眼三维图像生成的工作主要包含两步,从左视图估计一个准确的深度图,并使用DIBR算法渲染正确的右视图。接着直接对右视图进行回归处理,由于深度图采用了水平视差法故存在背景空洞,导致在DIBR计算过程中出现了像素空洞。本文中建立卷积神经网络模型来预测概率视差序列图

20、,并将视差序列图叠加得到深度图,并将其作为中间媒介输入,接着与输入图像进行卷积再叠加,通过使用各层的选择层来模拟DIBR方法的过程。在训练过程中,视差序列图由模型生成,且不存在背景空洞的现象,在生成后不用跟实际的视差图进行比较分析,整个训练过程以水平视差的表达和绘图展现的双重目的而结束。此模型通过各层的选择层能够进行端到端的训练。31模型构建最近的研究证明,把全连接输入层的特征图结合起来,将有利于进行图片像素的预测,这在人脸识别、姿态估计、物体检测等应用的特征提取上有着较高的准确率0。“J。鉴于本文研究内容中对无背景空洞、无背景粘连深度图的需求,为了保证生成裸眼三维的高效性和准确性,因此把卷积

21、神经网络引入到本文中,通过将卷积神经网络与DIBR法进行结合,构建一种新的模型。模型设计如图3所示,将左视图作为输入,分别通过多个卷积层。由于在卷积训练中得到的是分辨率远小于原始图片的特征碎片,这些特征碎片在对新的图像进行特征预测时会产生大量不同的卷积特征映射图,对这些图要经过相应的处理。在每个卷积层后有一个分支,通过解卷积对上一层输出的图像进行上采样,上采样层的操作即为池化层,将每一卷积计算过后的特征映射图进行聚合统计计算,不仅能对特征图进行降维处理,还保证了每一层图片尺寸的稳定。在全连接层中,首先将每一层的特征映射图进行叠加得到最终的特征图,再将每一层得到的每个特征图进行叠加,得到与输入图

22、像尺寸要求一致的深度图,并将其作为选择层的输入。再将此深度图在每一个空间位置的通道上分别进行运算得到多个概率视差图,将概率视差图和左视图输入选择层,每一个概率视差图都与左视图进行一次卷积运算,再将所有的运算结果进行叠加,最终得到右视图。本文建立了12层的卷积计算层,在对样本数据训练期间,每一卷积层的图像训练都存在区别,从图片的近景到远景进行特征学习。故每一卷积层掌握的特征是不一样的。训练结束后,每一层都对新输入图像特征进行提取,结合训练所得特征,对输入图像依次从近景到远景进行特征的提取,在实际操作中,卷积层的层数较少,卷积网络对输入图像特征提取的不完全,卷积层数较多会产生过拟合现象,降低卷积神

23、经网络的泛化能力。42节对本文模型中每一层的计算效果经过上采样处理后进行了展示,从中可以看出每一层的变化情况以及本文12层卷积网络的合理性。初始化的解卷积层相当于能够促进训练的双线性插值,具体而言,通过因子s进行上采样,核心的OJ值副定义为:r一2墨=!=(苎里旦皇兰) ,1n、。一2S ”tOq 2(1一I南I)(1一l南I) (11)图3模型结构Fig3 Model structure32选择层重构原理选择层是传统裸眼三维生成的DIBR算法,用传统的算法对选择层进行重新构造,一方面能保证右视图生成的便捷性,一方面保证了卷积神经网络结构的完整性。在传统的裸眼三维图像生成过程中,通过左视图,和

24、深度图z,能够计算出视差图D,具体计算公式如下所示:D=B(Z一力Z (12)其中:曰为两眼之间的间距,z为输入深度,为两眼到交点平面的距离,如图4所示。右视图D则表示为:09=毛+D# (13)通过两眼之间的距离曰以及焦平面与两眼之间的距离结合式(12)能计算视差图。当人眼的焦点离人眼越近时,生成的视差图效果较差,反之较好。然而,由于视差图D并非可区分层次的,所以还不能直接通过选择层计算。本文所采用的网络在计算每个像素位置仇时,可能存在差异值d的概率分布,对所有的i,J来说满足:D;=1 (14)d同时将左视图的移动产生的堆栈定义为:万方数据258 计算机应用 第38卷fdg=IFd那么通过

25、下式由选择层构造右视图:Og=鬈d D;d(15) 4实验对比分析(16)目前巩是能够区分层次的,因此能够计算输出和真实右视图y之间的损耗肘,并将此作为训练的目标。计算公式如下:M=I Dyl (17)z f(a)较远的输入深度z (b)较近的输入深度z图4视差图生成物理模型Fig4 Physical model for disparity map generation33模型设置在实验过程中,采用不带有时序信息的单个图片作为输入,这样可以确保与传统算法的进行比较的公平性。训练数据集主要来自KIqTI【l,KITrI数据集是目前最大的计算机视觉算法评测数据集。在训练期间,每个输入左帧被调整为4

26、32 X180像素,生成200个88大小的特征碎片,由此特征碎片对输入的图像做计算,最终由上采样层进行降维处理,生成384160的预测图像。生成的右视图为384160的分辨率,这对于一般图片的使用来说是无法接受的分辨率。为了解决这个问题,首先通过卷积网络的视差图通常有很多比原始彩色图像要少的高频内容,因此能够将预测得到的视差图进行扩展,并将其与原始的高分辨率左视图相结合呈现出高分辨率的右视图。以这种方式呈现右视图与4倍上采样频率相比,具有更好的图像质量。对于定量分析,本文主要采用384160分辨率的图像作为输入和输出;对于定性分析,本文采用卷积神经网络对图片进行卷积和上采样,通过利用卷积网络的

27、权值初始化主分支上的卷积层(图3立体方块部分),并以标准偏差为O0l的正态分布初始化所有其他权值。为了使全连接输入层的图像特征信息、尺寸信息更加完整,在合并各层后,创建一个侧面分支,将多层(本文创建了12层)卷积层进行批量的归一化处理。接着通过解卷积层进行初始化处理,如式(10)一(11)所示,此解卷积的输出尺寸也匹配最终的输出尺寸。通过批量归一化处理的卷积网络层与随机的初始化层进行连接,这样就能够解决由于卷积网络的庞大和不均匀的激活量所造成的像素尺寸重构数值不稳定的问题4“。在硬件方面,需要通过Nvidia的独立显卡进行显示,通过Nvidia GTX Titan GPU计算,卷积神经网络可以

28、以每秒100帧的速度重建新的右视图。而本文使用的主要是MXNet架构的卷积神经网络,MXNet为开源的网络架构模型,支持c+、Python、R、Matlab、Javascript等语言,可运行在CPU、GPU或移动设备E16。为了验证算法的可靠性,提高实验的可信度以及对视差图效果进行优劣判断,本文通过基于水平视差的三维显示、DIBR算法与卷积神经网络进行比较,验证本文方法与传统方法的优缺点,采用定量分析和定性分析两种方法进行综合评价。定量分析主要比较生成右视图像素尺寸重构的平均绝对误差,误差越小,效果越好。定性分析通过直观比较DIBR方法生成的视差图和卷积神经网络生成的视差图来判断,由11节可

29、知DIBR生成的视差图是目前主流方法中应用最广、空洞效果改善最好的,将本文的方法与其进行比较将更好说明本文方法的优劣。通过这两种评估方法最终验证卷积神经网络进行裸眼三维图像生成的可行性。41定量分析本文取像素尺寸重构误差值的平均绝对误差进行定量分析,由于在生成右视图时,都会对图片的每一个像素进行重新排列,故与原图会出现一定的尺寸误差,尺寸误差越小就说明生成的右视图与原图匹配效果更好。分析平均绝对误差(Mean Absolute Error,MAE)通过计算进行,如式(18):1MAE=斋IYg(x)I (18)J】W其中:工为右视图,Y为左视图,g()表示生成相应的模型,日和形分别为图像的高度

30、和宽度。考虑到卷积神经网络预测的不稳定性,为保证实验的准确性,本文对3种方法进行11次的定量分析,结果如图5所示。实验次数图5 MAE值比较Fig5 Comparison of MAE values由于卷积神经网络存在不稳定性,故MAE并非一个定值,本文在32节中对其存在的不稳定性结果进行了解卷积处理,由实验结果来看其MAE值在一个合理的区域内变动,卷积神经网络相对于水平视差和DIBR方法来说,其误差值分别平均降低了1282和1052。由于考虑到修正误差会降低模型计算速度,由图分析可知误差的范围是在合理范围中,故不需要对误差进行修正。42定性分析为了更好地理解本文所提的方法,文中展示了定性分析

31、的结果,通过卷积神经网络对特征进行提取,展现出较强的立体感,并通过12个卷积层从近到远的分配视差图,如图6所示。从图6中可以观察到卷积神经网络方法能够通过输入图片中对隐含的信息的特征提取得到特征图,主要包括图片的尺寸、遮挡物以及图片中物体的几何构架。由卷积网络计算万方数据第1期 朱俊鹏等:基于卷积神经网络的视差图生成技术 259出来的这12幅图像都是384160大小的尺寸,这得益于上采样层的处理。随着卷积计算的进行,在卷积计算的后几层,无论是近景的人物还是任务背后远景的湖、山、天空、云彩都得到了很好的体现,这说明卷积神经网络很好地提取到原始图像中的各个特征元素,并能很好地表现出来。从图6中分析

32、可见对图片的预测由近到远进行分析,每一个层面的视差图都不一样,随着卷积层数的深入,得到的视差图存在过拟合的趋势,使得后期视差图会出现失真的现象,然而,这并不影响最后整体生成图像的质量。这是因为每一排的像素的值相同且固定,任何视差图的分配都将按照固定的像素大小进行排列,所以视差的计算只需要精确的垂直边缘,在实验中也能够看出深度学习框架的学习的主体主要也集中在这个区域当中。厶1一 ,h图(d)第4层视差图 (e)第s层视差图 (f)第6层视差图(g)第7层视差图 (h)第8层视差图 (i)第9层视差图(j)第10层视差图 (k)第11层视差图 (1)第12层视差图图6 CNN方法定性分析结果(各层

33、视差图)Fig6 Qualitative analysis results(disparity maps ofdifferent layers generated by CNN method)同时通过卷积神经网络生成的右视图和DIBR方法生成右视图的灰度图进行对比分析,如图7所示。学篁譬I学(a)原罔 fb)DIBR方法 (cJ CNN方法图7原图、DIBR和CNN方法效果比较Fig7 Comparison of disparity maps by DIBR and CNNs methods图7展示了不同样本图片经过DIBR和卷积网络的效果,从左至右依次为原图、DIBR深度图、卷积神经网络预测

34、视差图。从图中分析可以得出,卷积神经网络的预测视差图方法能够更好地勾勒图片中物体的轮廓,能够勾勒出图中的远景的山、湖泊、楼房、天空的轮廓,近景的字迹、人物形态;而由传统方法DIBR的深度图其背景之间产生了粘连,远景分不清景物的轮廓,也看不清石碑上的刻字,图像特征不能直接区分。因此由图7可以清楚地对比出由卷积神经网络生成的视差图更加清晰,特征提取更加明显,很好地克服了传统方法的缺点。5结语本文使用卷积神经网络对裸眼三维图像生成进行了研究,通过输入相应的左视图图像进行多层的训练得到特征图,通过模拟DIBR得到相应的右视图。此方法相比传统的三维生成方法,特征图没有背景空洞现象,准确率高。在实验中使用

35、的图像都来自于静止图像,未考虑带有时态信息的视频,在普通二维视频生成裸眼三维视频的过程中,可通过时间信息来提高特征提取的性能,并结合该网络对视频进行了研究,发现几乎没有定量性能的增益,且视频的连贯性受到了影响,此问题也是下一步需要对本文的设计需要进行提高的一个研究方向。参考文献(References)【1】 刘建伟,刘媛,罗雄麟深度学习研究进展J计算机应用研究,2014,31(7):19211930(LIU J W,LIU Y,LUO X LResearchand development on deep learningJApplication Research ofComputers,201

36、4,31(7):19211930)2】 赵天奇裸眼3D内容生成和显示若干关键技术研究【D北京:北京邮电大学,2015:2243(ZHAO T QResearch on key technologies of naked eye theredimensional display and its content generation【D】Beijing:Beijing University of Posts and Teleeommunications,2015:2243)【3 李博乐基于DIBR的裸眼3D显示系统研究与实现D】重庆:重庆大学,2015:740(LI B LResearch and

37、 implementation ofglasses-free 3D display system based on DIBR【D】Chongqing:Chongqing University,2015:740)【4】 谭伟敏裸眼3D显示关键技术研究【D】重庆:重庆大学,2014:32-43(TAN W MResearch on key technologies of glasses-free3D display【D1Chongqing:Chongqing University,2014:32421【5】 李彦冬,郝宗波,雷航卷积神经网络研究综述【J】计算机应用,2016,36(9):25082

38、515(u Y D,HAO Z B,LEI HSurvey ofconvolutional neural network【J】Journal of Computer Applications,2016,36(9):25082515)【6】 卢宏涛,张秦川深度卷积神经网络在计算机视觉中的应用研究综述【J】数据采集与处理,2016,31(1):117(LU H T,ZHANGQ CApplication of deep convolutional neural network in computervision【J】Journal of Data Acquisition and Processin

39、g,2016,3 1(1):1一17)7】 SILVER D,HUANG A,MADDISON C J,et a1Mastering thegame of go with deep neural networks and tree search【J】Nature,2016,529(7587):484489【8】 ZEILER M D,FERGUS RStochastic pooling for regularization ofdeep eonvolutional neural networks【EBOL【2017-Ol11】http:wwwmattinwzeilercompubsielr20

40、13ielr2013pdf【9 MURPHY K PMachine Learning:A Prebabilistic Perspective【M】Cambridge,MA:MIT Press,2012:8292【ioTATARCHENKO M,DOSOVlTSKIY A,BROX TSingleview tomulti-view:reconstructing unseen views with a convolutional net-workJ1KnowledgeInformation Systems,2015,38(1):231257【1 1】DOSOVITSKIY A,FISCHER P,

41、ILG E,et a1FlowNet:learningoptical flow with eonvolutional networks【CProceedings of the2015 IEEE International Conference on Computer VisionWash-ington,DC:IEEE Computer Society,2015:27582766(下转第289页)嘿一捆燕f糊攀一万方数据第1期 史兵等:基于无线传感器网络的室内移动灭火机器人系统设计(上接第259页)【12】 RICHTER S R,VINEET V,ROTtt S,et a1Playing fo

42、r data:ground truth from computer games【C】Proceedings of the 2016European Conference on Computer VisionBedim Springer,2016:102118【13】 GEIGER A,LENZ PSTILLER C,et a1Vision meets robotics:the KITH dataset【J】International Journal of Robotics Research,2013,32(11):12311237【14】 WANG C,YAN X,SMITH M,et a1A

43、 unified framework for automatie wound segmentation and analysis with deep eonvolufionalneural networks【C】EMBC 2015:Proceedings of the 37th Annual International Conference of the IEEE Engineering in Medicineand Biology SocietyPiscataway,NJ:IEEE,2015:2415-2418【15】HE K,ZHANG X,REN S,et a1Delving deep

44、into rectifieB:surpassing humanlevel ped抽mance on ImageNet classificationC】Proceedings of the 2016 IEEE International Conference onComputer VisionPiseataway,NJ:IEEE,2016:10261034【16】 ATHEY S,IMBENS GMachine learning methods for estimating her-erogeneous causal effects【J】Statistics,2015,113(27):73537

45、360This work is partially supported by the Academy of Equipment SchoolLevel Basic Research Project(DXZTJC-ZZ一2013009)ZHU Junpeag,born in 1993,MS,candidate,His research inter-ests inelude informafion network securityZHAO Ho雄,U,born in 1964,PhD,professorHis research interests include information network seeurityYANG Haltao,born in 1979,PhD,associate research fellowHis research interests inehde information network securlty万方数据

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 研究报告 > 论证报告

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁