《卷积神经网络在无人驾驶中行人检测中的应用,软件工程论文.docx》由会员分享,可在线阅读,更多相关《卷积神经网络在无人驾驶中行人检测中的应用,软件工程论文.docx(13页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、卷积神经网络在无人驾驶中行人检测中的应用,软件工程论文本篇论文目录导航:【】【】【】 卷积神经网络在无人驾驶中行人检测中的应用【】【】 卷积神经网络论文范文:卷积神经网络在无人驾驶中行人检测中的应用 内容摘要:随着近年来5G与人工智能的崛起,无人驾驶技术在不断突破,行人检测作为无人驾驶中的重要任务之一,是一个具有重要研究意义的课题。文中采用深度学习框架Pytorch和目的检测网络YOLO进行行人检测,分别搭建了YOLO v3、YOLO v3轻量版YOLOv3-Tiny、YOLO v3与SPP-Net融合版本YOLOv3-SPP行人检测平台,并对小型目的和大型目的辨别进行了具体的测试比照。测试结
2、果表示清楚,YOLO v3和YOLOv3-SPP平均置信度较高;YOLOv3-Tiny实时性较高,适用于计算量小的行人辨别场景。 作者简介:付友1988-,男,本科,工程师,研究方向为智能辨别和神经网络。;*杨凡1983-,男,博士,副教授,研究方向为人工智能技术。; 本文关键词语:行人检测;深度学习;目的检测;卷积神经网络; 基金:重庆市基础科学与前沿技术研究专项面上项目基金赞助项目cstc2022jcyj-msxmX0233;重庆市教育委员会科学技术研究计划KJQN202201125;国家电网公司科技项目赞助SGCQSQ00BGJS2000453; Abstract:With the ri
3、se of 5 G and artificial intelligence in recent years, unmanned driving technology is constantly making breakthrough. Pedestrian detection is one of the important tasks of unmanned driving, and it is an important research topic.This project will use deep learning framework Pytorch and target detecti
4、on network YOLO for pedestrian detection, YOLO v3, YOLO v3 lightweight version YOLOv3-Tiny, YOLO v3 and SPP-Net fusion version YOLOv3-SPP are establised to test and being compared in terms of small and large targets. Experiment results show that YOLO v3 and YOLO v3-SPP has higher average confidence,
5、 while YOLOv3-Tiny has a low real-time performance which suits the pedestrian recognization situation of a small amount of calculation. Keyword:pedestrian detection; deep learning; target detection; convolution neural network; 0 引 言 随着科技的进步,交通工具愈来愈发达,人们出行也愈加便利,但与此同时也带来了很多安全隐患,安全事故频频发生,造成这一现象的直接原因是疲惫
6、驾驶、酒后驾驶等。究其根本原因是驾驶员不能及时准确判定道路状况以及不能在发生紧急状况时采取最优措施。因而,为了减少交通事故的发生,出现了无人驾驶系统,利用计算机快速、稳定、准确的计算能力,在车辆行驶经过中提供安全行驶保障,极大地降低了交通事故的发生率。 在无人驾驶系统中,行人检测是一大关键点。不仅要检测出前方行人的数量和距离,还要检测出行人的详细位置,为驾驶系统处理器提供可靠的数据,以此采取措施,保证车辆的安全通行,同时也保证了行人的安全。行人检测属于目的检测的分支。如今目的检测已经成为越来越热门的方向,它能够被广泛应用于工业产品检测、智能导航、安防监控等各个实际应用领域,帮助机关和广大企业提
7、高工作效率,实现 向科技要人力 . 1 基于深度学习卷积神经网络模型 当前,行人检测方案主要分为两类。第一类方案是基于背景建模,首先找出前景运动的目的,然后根据特定区域进行特征提取,然后利用分类器进行分类,判定出能否有行人,但该方式方法主要存在下面问题: 环境变化大,例如光照会对图像色度造成影响; 当画面中出现密集的目的时,检测效果急剧下降; 分类器必须对背景物体的改变做出正确的判定,而不能将其分类为目的物体。第二类方案是基于统计学习的方式方法,这是当前行人检测常用的方式方法,根据提早准备好的大量的行人样本以及对应标签构建行人检测分类器,主要代表有深度学习。当前深度学习在行人检测方向有大量应用
8、,主要分为一阶检测和二阶检测,二阶检测比一阶检测先提出,主要有算法生成一系列样本并作为候选框,再利用卷积神经网络分类,主要代表有R-CNN1、Fast R-CNN2,3、Faster R-CNN4,5.而一阶检测是直接回归预测目的的类别和位置坐标信息,精度相对二阶检测略低,但速度更快,主要代表有YOLO6系列和SSD7. 行人检测从传统检测方式方法到深度学习的应用,在准确率和计算量上,都有了较大的改善。从Two-Stage系算法代表作R-CNN、Fast R-CNN、Faster R-CNN到One-Stage系算法代表作SSD、YOLO,甚至是近两年的SqueezeNet8和MobileNe
9、t9,无论是在准确率、实时性还是模型轻量化程度上,都有了突破性的进展10,11.在SSD和YOLO算法出现以前,固然目的检测的准确率比拟可观,但实时性还不能到达要求。表1为不同方式方法在PASCAL_VOC数据集上的实验结果。 表1 不同方式方法在VOC 2007数据集上的实验结果比照 考虑到行人检测在工程应用中对实时性要求较高,本文采用YOLO算法实现行人检测。当前,YOLO系列算法一共发布了三个大版本,即YOLO v1、YOLO v2、YOLO v3,也发布了一些派生版本,例如YOLOv3-Tiny、YOLOv3-SPP.YOLOv3-Tiny是在YOLO v3的基础上,裁减了特征提取网络
10、中的一些特征层,在速度上更快,但精度有所降低。YOLOv3-SPP是YOLO v3与SPP-Net12网络的融合。本文采用深度学习框架Pytorch和目的检测网络YOLO实验了行人检测系统,并分别搭建了YOLO v3、YOLO v3轻量版YOLOv3-Tiny、YOLO v3与SPP-Net融合版本YOLOv3-SPP行人检测平台,并对小型目的和大型目的辨别进行了具体的测试比照。 2 实验与分析 2.1 实验系统设计 本文将采用深度学习框架PyTorch进行YOLO v3整体目的检测网络构造搭建。详细做法是:首先通过人工使用LabelImg软件对行人数据集进行行人标注,然后从YOLO官网下载三
11、个网络构造cfg文件,通过PyTorch提供的内置库函数,将三种网络构造信息cfg文件进行解析,并搭建出深度学习模型,其次将图片进行数据加强等预处理操作,按批次送入网络进行前向传播和反向传播训练,最后得到模型的权重文件。利用OpenCV提供的解析深度学习模型的接口DNN,加载训练好的模型,通过输入图片和笔记本电脑内置摄像头进行测试。整体设计框架,如此图1所示。 2.2 行人检测效果测试 本节将在CPU为i5-6300HQ、GPU为GTX960M的笔记本电脑进行本文纵向与横向的测试比照,即分别在单独使用CPU和GPU加速的情况下对YOLO v3、YOLOv3-Tiny、YOLOv3-SPP网络进
12、行输入图片和摄像头测试,华而不实图片测试分为小型目的和大型目的测试,并将测试结果进行准确率、测试速度比照。详细采用OpenCV提供的DNN深度学习模块对训练好的模型进行加载。DNN模块最早来自Tiny-dnn, 能够加载Caffe预训练模型数据,OpenCV在3.3版本中将DNN模块迁移到OpenCV正式发布模块中,并扩展支持包括Tensorflow、PyTorch和Caffe等所有主流的深度学习框架。本文也将采用DNN模块对模型进行数据加载测试。 图1 系统整体设计框架 2.2.1 图片测试 本小节将对模型进行输入单张图片测试,先使用小目的图片进行测试,观察目的在图片中占比小的情况下的检测效
13、果;再使用大目的图片进行测试,观察目的在图片中占比大的情况下的检测效果。 小型目的测试。 检测小型目的主要依靠浅层特征图,浅层特征图比深层特征图感受野小,有利于检测小型目的,这都归功于YOLO v3的网络构造,相比于YOLO v1和YOLO v2对小型目的检测效果不佳的现象,YOLO v3增加了浅层、中层、深层特征图的融合,提高了对小型目的检测的能力。 测试图片为行人占整幅图像比例比拟小的图片,背景等其他目的干扰较大,图片像素为800*600.分别使用三种不同网络进行检测,检测效果如此图2所示,一共有6个person, 在CPU运行下,使用YOLO v3模型的检测时间为1.405s, 检测出5
14、个person对象,在召回率约83.3%前提下,平均置信度为82.4%;使用YOLOv3-Tiny模型的检测时间为0.233s, 检测出4个person对象,在召回率约66.7%前提下,平均置信度为76%;使用YOLOv3-SPP模型测试的检测时间为1.782s, 检测出5个person对象,在召回率约83.3%前提下,平均置信度为80.4%.在GPU加速下,三个模型检测时间分别为0.094s、0.031s、0.106s, 分别同比提升约1394.1%、651.6%、1578.6%.各模型测试指标比照如表2所示。 大型目的测试。 对于大型目的主要通过深层特征图进行检测,深层特征图具有窗口小,感
15、受野大,通道数多的特点,在YOLO v3中,深层特征图大小为13*13*255. 图2 小型目的测试 表2 小型目的测试指标比照 测试图片为行人占整幅图片比例较大的图片,背景等其他目的干扰较小,选取的图片像素为800*600,分别使用三种不同网络进行检测,检测效果如此图3所示。从检测效果图看出,图中一共有4个person对象。在CPU运行下,使用YOLO v3模型的检测时间为1.383s, 成功检测出4个person对象,在召回率为100%前提下,平均置信度为86.5%;使用YOLOv3-Tiny模型的检测时间为0.207s, 成功检测出3个person对象,在召回率为75%前提下,平均置信度
16、约为59.3%;使用YOLOv3-SPP模型测试的检测时间为1.539s, 成功检测出4个person对象,在召回率为100%前提下,平均置信度为70.5%.在GPU加速下,三个模型检测时间分别为0.107s、0.029s、0.105s, 分别同比提升1192.7%、613.9%、1365.2%.各模型测试指标比照如表3所示。 图3 大型目的测试 表3 大型目的测试指标比照 导出到EXCEL 2.2.2 实时摄像头测试 在实际应用里,智能安防、自动驾驶等领域都需要用到行人检测,尤其是自动驾驶,对行人检测的速度、实时性有极高的要求。因而,本节将对该检测器的实时性进行测试,通过笔记本电脑内置摄像头
17、进行测试,由于内置摄像头为VGA摄像头,因而分辨率最大为640*480,并且由于开启实时摄像头时,图像内前景与背景无法做到完全一致,因而测试结果存在一定偏差。测试效果如此图4所示。从测试结果图看出,一共只要1个person对象,三个网络都检测出目的,召回率都到达100%,但三者的置信度和测试速度不同。在CPU运行下,使用YOLO v3网络的置信度为94%,取华而不实连续十帧的检测时间,分别为1.281s、1.288s、1.295s、1.281s、1.279s、1.291s、1.280s、1.277s、1.290s、1.287s, 平均值约为1.285s, 帧数约为0.78帧,画面明显卡顿,不能
18、知足实时检测任务。使用YOLOv3-Tiny网络的置信度为43%,取华而不实连续十帧的检测时间,分别为0.203s、0.203s、0.202s、0.200s、0.204s、0.202s、0.201s、0.202s、0.204s、0.201s, 平均值约为0.202s, 帧数约为4.95帧,勉强知足实时检测任务。使用YOLOv3-SPP网络的置信度为90%,取华而不实连续十帧的检测时间,分别为1.346s、1.341s、1.346s、1.348s、1.343s、1.346s、1.348s、1.352s、1.341s、1.352s, 平均值约为1.347s, 帧数约为0.74帧,不能知足实时检测任
19、务。在GPU加速下,同样取连续十帧,计算平均检测时间,三个模型平均检测时间分别约为0.087s、0.026s、0.086s, 帧数分别约为11.49帧、38.46帧、11.63帧,帧数分别同比提升约 1373.0%、677.0%、1471.6%.三个模型进行实时摄像头测试的指标比照如表4所示。 图4 实时摄像头测试效果图 表4 实时摄像头测试指标比照 3 结束语 本文利用Pytorch框架,将YOLO v3、YOLOv3-Tiny、YOLOv3-SPP在行人检测方面进行了横向和纵向比照。YOLO v3和YOLOv3-SPP网络在能保证较高召回率的前提下,平均置信度能到达70%以上,使用CPU处
20、理每张图片的时间通常在1s以上,主要是由于YOLO v3和YOLOv3-SPP使用了完好的YOLO v3网络构造,计算量相比YOLOv3-Tiny大了很多,但在GPU加速下,帧数能到达10帧左右,勉强能知足实时性,效果提升明显。使用YOLOv3-Tiny作为输入网络,在召回率和置信度两个方面都略逊于另外两个网络,但由于YOLOv3-Tiny更轻量级的网络构造,使得在执行检测任务时,计算量小,处理图片和视频的速度更快,在实时性上要优于另外两个网络。 以下为参考文献 1姜星宇,辛兰,刘卫铭基于压缩轻量化深层神经网络的车辆检测模型J.信息技术, 2020,447:23-27. 2王纪军,靖慧,冯曙明
21、,等基于Faster R-CNN的仓库视频监控目的检测方式方法研究J.信息技术, 2022,437:92-96. 3 Girshick R.Fast R-CNNJ.Computer Ence,2021. 4罗靖遥,黄征基于CNN分类器和卷积的目的检测J.信息技术, 2021.419-:101-104. 5 Ren S Q,He K M,Ross G,et al.Faster R-CNN:towards real-time object detection with region proposal networksJIEE Transactions on Pattern Analysisand
22、Machine Intelligence,2021,396。1137-1149. 6 Redmon J,Divvala S,Girshick R,et al.You only look once:unifled,real-time object detectionC.Proceedings of the 2021 IEEE Conference on Computer Vision and Pattern Rec ognitionCVPR。Las Vegas ,NV,USA:IEEE 2021:779-788. 7 Liu W,Anguelov D,Erhan D,et al.SSD:sing
23、le shot multibox detectorC.Proceedings of the 14th European Conference on Computer VisionECCV。Amsterdam,Netherlands: Springer,2021:21-37. 8 landola F N,Han S,Moskewicz M W,et al. SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and 0. 5MB model sizeC.5th International Conference on Learni
24、ng Representations, Toulon,Fr,2021:1-13. 9 Sandler M,Howard A,Zhu M,et al.Mobilenetv2:inverted residuals and linear botlenec ksC.Proceedings of the IEE Conference on Computer Vision andPattern Recognition,2021:4510-4520. 10胡瑞雪,曾曦基于BERT-LSTMCNN的立场分析J.信息技术, 2020,442:93-97,102. 11 Wang X.Wang s,Cao J,e
25、t al.Data-driven based tiny-YOLOv3 method for front vehicle detection inducing SPP-netJIEEE Access,202099-1. 12 He K M,Zhang X Y,Ren S Q,et al.Spatial pyramid pooling in deep convolutional networks for visual recognitionJ.IEE Transactions on Pattern Analysis and Machine Intelligence ,2021,379:1904-1916.