AttoNets一种新型的更快、更高效边缘计算神经网络-精品文档资料整理.docx

上传人:安*** 文档编号:73273633 上传时间:2023-02-17 格式:DOCX 页数:19 大小:20.05KB
返回 下载 相关 举报
AttoNets一种新型的更快、更高效边缘计算神经网络-精品文档资料整理.docx_第1页
第1页 / 共19页
AttoNets一种新型的更快、更高效边缘计算神经网络-精品文档资料整理.docx_第2页
第2页 / 共19页
点击查看更多>>
资源描述

《AttoNets一种新型的更快、更高效边缘计算神经网络-精品文档资料整理.docx》由会员分享,可在线阅读,更多相关《AttoNets一种新型的更快、更高效边缘计算神经网络-精品文档资料整理.docx(19页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、AttoNets,一种新型的更快、更高效边缘计算神经网络 作者 | Alexander Wong, Zhong Qiu Lin, and Brendan Chwyl 译者 | Rachel 出品 | AI科技大本营 ID:rgznai100 尽管机器学习已经在很多复杂的任务中获得了进展 但现有模型仍然面临许多边缘计算理论的困难 这些边缘计算场景包括挪动设备、消费设备、无人机以及车辆。现有针对低功率边缘设备的深度神经网络设计主要包括两种方法 一是通过网络设计原那么手工调整 二是自动进展的网络架构搜索。 在本研究中 作者进一步探究了人机结合的深度神经网络设计方法 该方法结合了基于规那么的网络设计原

2、型开发和机器驱动的网络设计研究。本文提出了一种新的神经网络 AttoNets 该网络类型可以基于设备进展高效的边缘深度学习。AttoNets 基于人为规定的设计要求搭建网络 其包含一个由定制模块构成的人工设计的网络级宏观架构 由机器设计的模块层级的宏观架构和微观架构。 在物体检测中的实验结果说明 在使用更少的参数和更低的计算花销的情况下 AttoNets 的效率与现有最优模型相当 并在准确率指标上大幅超越现有模型 与 MobileNet-V1相比 最小的 AttoNet 的准确率提升约 1.8% 使用的乘-加操作数以及参数量减小了10倍 。另外 本文也在实例分割以及物体探测应用中检测了 Att

3、oNets 的效果 并发现与基于 ResNet-50 的 Mask R-Cnn 相比 通过使用基于 AttoNet的 Mask R-Cnn 网络 参数量以及计算花销得到了大幅度降低 乘-加操作减少5倍 参数量减少2倍 。 1 介绍 随着深度学习的不断开展 现有模型在许多复杂任务中都实现了非常好的效果 尤其是视觉感悟领域 具有代表性的应用包括图片分类、物体检测以及图片分割。尽管如此 随着网络复杂度的不断升高 网络在应用以及理论领域也遇到了更多挑战 例如在基于设备的边缘计算场景中 包括算力、存储、贷款、能源在内的资源都非常稀缺。因此 很多研究都开场尝试设计小规模的深度神经网络 以适应低功率边缘设备

4、的需求。 现有研究主要关注怎样通太多种方法来搭建更加高效的深度神经网络。第一种方法是首先设计一个复杂但效果很好但深度神经网络 之后再对模型进展准确的缩减。这种方法的问题在于 研究人员需要在准确度以及准确度之间进展非常多的权衡 并且需要十分设计缩减模型的方法 以提升模型在目的处理器上的运行效率。另一种类似的方法是 研究者在设计初始的复杂网络之后 通过使用传统的数据压缩方法对模型进展压缩 例如通过老师-学生网络设计谋略产生规模较小的学生网络。 第二种主要的方法那么通过引入架构设计规那么来获得更加高效的神经网络架构。例如 有学者通过在特定卷积层前后各引入一个新的卷积层创立瓶颈构造 以降低该卷积层输入

5、以及输出的维度。 最近出现的第三种方法那么通过全自动的网络架构搜索来寻找可以在边缘设备中运行的高效深度神经网络 这一方法的代表性成果包括 MONAS 以及 ParetoNASH 。这一方法将神经网络搜索看多一个多目的优化问题 优化目的包括模型规模、准确率 并使用强化学习以及演化学习算法进展优化。 可以发现 目前的现有方法主要包括两种思路 1 基于设计原那么手工设计网络 2 使用全自动的网络架构搜索。在本研究中 作者对人机结合的深度神经网络设计方法进展了探究 将人工驱动的基于规那么的神经网络设计原型开发和机器驱动的设计探究相结合 充分利用了人类的经历、创造性和机器的速度以及严谨性。通过该方法 本

6、文提出使用 AttoNets 这一新的高效的边缘深度学习网络。 本文的构造如下。第二局部详细介绍了人机结合的、基于边缘以及挪动场景的高效神经网络的设计方法。第三局部对基于此方法设计的 AttoNets 进展了介绍 重点介绍了模块层级的微构造及其设计。第四局部展示了 AttoNets 在物体识别、实例分割以及物体探测任务中的实验构造并进展讨论 第五局部那么列出了本文的结论。 2 方法 本文所提出的人机结合的深度神经网络设计谋略主要包含两个阶段 i)基于规那么的网络设计原型开发 ii)机器驱动的设计探究。首先 本文作者基于设计原那么对网络级的宏观架构进展设计 并搭建一个人为设定的针对视觉领域的初始

7、设计原型。之后 作者通过机器驱动的设计探究 基于人为设定的初始原型和人为规定的设计要求对模块级别的宏观构造和微观构造设计进展开发 并产生一系列备选的好笑深度神经网络模型。通过对两个阶段进展平衡 使用者可以在设计约束以及要求的规定下获得针对神经网络架构的创造性解决方案。 2.1 基于规那么的网络设计原型开发 由于已有研究已经针对模型的效率进展了大量的探究 本文作者在这一阶段将主要关注点集中在怎样使用更广泛的网络层级宏观架构来提升模型效果。尽管这一目的似乎与提升模型效率相违犯 但作者认为 机器更擅长通过降低模型规模来提升效率 因此提升模型效率的工作将主要在第二阶段由机器驱动的方法完成。 在本文中

8、作者使用了两个已有文献中提到的在视觉领域的人工驱动的设计原那么 这两个原那么主要针对视觉领域中物体识别的任务提出 并主要关注怎样设计高效的深度神经网络。在物体识别任务中 模型需要判断给定场景所包含的一系列对象所属的种类。针对该任务 作者使用的第一个网络设计模型原那么为大幅增加网络的深度 该原那么在许多已有研究中已经进展了详细阐述。这一原那么是的模型可以对更深层次的特征嵌入进展学习。 这一原那么的一大问题在于 当模型过深时 模型训练江边的非常困难。为解析决这一问题并进步模型的准确率 作者湿了了第二个设计原那么 即在网络中增加捷径连接 shortcut connections 。通过在残差架构中增

9、加捷径 即使在深层的网络中 包括随机梯度下降在内的迭代优化方法也将更加有效。 通过使用上述两个设计原那么 人工驱动的初始设计原型可以通过模块设计提供一个深层卷积神经网络的架构 网络中间的表示层被放置在网络模块当中 且模块中包含捷径构造。基于已有研究 作者将初始设计原型的模块数量设定为16 使得后续机器驱动的网络设计可以具有较大的灵敏性。在中间表示层之后 作者添加了一个平均池化层 之后是一个全连接层。 最后 作者添加了一个 softmax 层来得到输入图片所属的类别。图1展示了人工驱动的初始设计原型。正如在之前提到的 实际的宏观构造以及微观构造设计都将由机器驱动的方法来完成。 图1 人工驱动的初

10、始设计原型 2.2 机器驱动的设计探究 这一步中 作者基于人工设计的初始原型、数据以及任务目的 通过机器驱动的方法 对模块级别的宏观架构以及微观架构设计进展了探究。通过这一步骤 作者得到了一系列备选的高效的神经网络。另外 作者在此步骤中也考虑了人为设置的设计要求以及约束 使得机器驱动的设计所得到的深度神经网络可以适用于边缘以及挪动场景下基于设备的物体识别任务。 在本研究中 作者通过细粒度的生成性综合体 generative synthesis 来完成了机器驱动的设计探究经过。生成性综合体的高度灵敏性使得其非常适用于人机结合的高效深度神经网络设计。 生成性综合体的概念可以简单概括如下。其目的为学

11、习一个生成器 G 该生成器可以基于种子集合 S 生成深度神经网络 该经过通过最大化一个全局效果函数 U 实现 并可以知足指示函数 1r() 所定义的定量要求。公式如下 通过对上述公式进展迭代优化 作者得到了一系列知足指示函数的生成器 并进一步利用这些生成器构造了一系列高效深度神经网络 这些神经网络均知足约束要求 仅在模型准确率以及效率间的权衡上存在差异。 在本文中 作者根据已有研究的方法定义了效果函数 U 使得该函数可以同时衡量模型效果、计算复杂性和架构复杂性。另外 作者将指示函数设置为在 ImageNet50 上的最高验证准确率不低于 65% 以使得本文所得到的网络的效果不低于包括 Mobi

12、leNet-V1 以及 ShuffleNet-V2在内的目前最优模型。 3 AttoNet 架构设计 在本局部钟 作者首先描绘了机器驱动设计探究阶段所得到的模块级宏观架构的设计情况 之后详细介绍了基于本文方法得到的四种 AttoNets 网络的细节。 3.1 模块层级的微架构 图2展示了两个基于本文方法得到的模块级宏观架构设计。这两种类型的主要差异在于 B 类型在捷径中包含了一个额外的 1*1 的卷积层 并在卷积层中增加了 stride 。如表1所示 在模型所生成的网络中 每一个模块的宏观架构设计都不尽一样。下文展示了构造中所包含的一些有趣的现象。 图2 两个模块级的宏观架构设计例如 逐点压缩

13、。 两个网络都在第一个构件中使用了一个包含 1*1 的卷积核的压缩层。这种构造可以有效降低输入到下一层的维度 使得网络架构以及计算的复杂性都大幅减少。 使用包含 stride 的卷积组。 两个网络都在压缩层后使用了多组 3*3 的卷积核。通过使用卷积组而非单个卷积层 网络可以将压缩层的输出特征划分为更小的组并进展独立的处理 因此可以进一步降低计算以及架构的复杂度。十分的 第二种网络在卷积组中包含了 stride 而第一组网络没有使用 stride 的使用可以进一步降低复杂度。 背靠背的逐点卷积。 两个网络构造都使用多个了背靠背的 1*1 卷积层 其中第一个 1*1 的卷进层可以将卷积组中的信息

14、相结合 第二个 1*1 卷积层那么作为解压缩层 恢复模块所对应的输出维度。因此 这一方式可以使得网络在复杂度降低的情况下仍然保持甚至提升其效果。 3.2 创立 AttoNet网络架构 作者根据本文方法创立的4个 AttoNet 网络的情况如表1所示。与之前的边缘计算网络不同 AttoNets 包含了一个69层的深度卷积神经网络架构。通过观察 AttoNets 网络的构造 作者得到了如下有趣的发现。第一 不同网络间的微架构存在很大差异。第二 架构的整体复杂度从 AttoNet-A 到 AttoNet-D 逐渐降低 与本文中的机器驱动的设计探究阶段所采用的策略一致。第三 网络内部同样存在微观架构以

15、及宏观架构的差异。网络间以及网络内部架构的多样性仅能通过细粒度的机器驱动的设计探究来实现。 注 由于表1过长 请到原论文中查看。 4 结果与讨论 本文在i 物体识别以及ii)实体分割与物体探测这两个任务中对 AttoNets 的效果进展了评估 这两个任务是边缘以及挪动场景最常见的任务类型。下文展示了实验设置及结果。 4.1 物体识别 作者在 ImageNet50 数据集上对 AttoNets的最高准确率进展了评估 该数据集是最近构建的一个新数据集 其区别于 ImageNet 数据集 并专门针对基于设备的挪动视觉应用评估。作者将 AttoNet 以及目前效果最优的三种针对边缘以及挪动应用所设计的

16、深度神经网络 MobileNet-V1, MobileNet-V2, ShuffleNet-V2 进展了比拟。实验结果如表2所示。可以发现 AttoNet 在准确率以及复杂性指标上均有所提升。 表2 ImageNet50 上的实验结果 4.2 实例分割以及物体检测 这一任务要求模型在给定场景中对物体进展分割、检测其边界框并对每个分割进展分类。在本文中 作者在物体分割数据集 Pascal VOC 2021上训练了一个基于 AttoNet 的 Mask R-CNN 网络 下文称为Atto-MaskRCNN 并评估了掩膜的平均精度 APm 和探测 边框 的平均精度 APd 。模型训练使用 SGD进展

17、优化 并将动量设定为0.9。作者比拟了该模型以及基于 ResNet-50 的 Mask R-CNN 的效果 并发现 AttoMaskRCNN 的参数量降低了2倍 乘-加操作降低了5倍 并仍然到达了较高的精度 APd 约为65.5%, APm 约为60% 。图3展示了 Atto-MaskRCNN 的实体分割及检测边界框结果例如。 图3 Atto-MaskRCNN 的实体分割及检测边界框结果例如 5 结论 本文提出了一种人机结合的方法以设计在设备上使用的高效深度神经网络。通过结合人工驱动的基于原那么的网络设计原型开发 和机器驱动的设计探究 人们可以在知足人为设定的网络宏观架构的根底上 得到机器设计

18、的模块级宏观架构以及微观架构设计。实验结果说明 使用本文方法所得到的 AttoNets 网络可以在显著减少参数量以及计算开销的情况下 到达与目前网络相当的准确率。 在将来的研究中 作者方案进一步探究在其他任务中这一人机结合的设计方法的有效性 例如视频动作识别 视频姿势检测 图片捕捉 超分辨率图片重建 和图片生成。另外 作者认为 不同的人为设置的设计要求的组合对网络生成的影响也非常值得讨论。 论文链接 s:/arxiv.org/abs/1903.07209 *本文为AI科技大本营编译文章 转载请微信联络 1092722531 精彩推荐 2019 中国大数据技术大会 BDTC 再度来袭 豪华主席阵容及百位技术专家齐聚 15 场优选专题技术以及行业论坛 超强干货 技术剖析 行业理论立体解读 深化解析热门技术在行业中的理论落地。6.6 折票限时特惠 立减1400元 学生票仅 599 元 推荐浏览 AI科技大本营

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 工程图纸

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁