《亮风台新提端到端AR投影光学补偿算法.docx》由会员分享,可在线阅读,更多相关《亮风台新提端到端AR投影光学补偿算法.docx(21页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、亮风台新提端到端AR投影光学补偿算法【编者按】作为计算机视觉领域里的顶级会议CVPR2019录取论文代表了计算机视觉领域在2019年度最新的科技程度和将来开展潮流。今年度有超过5165篇大会论文投稿最终录取1299篇。这些录取的最新科研成果涵盖了计算机视觉领域各项前沿工作。而此次介绍的来自美国天普大学TempleUniversity以及美图-亮风台结合实验室的黄兵姚以及凌海滨提出了端到端的投影广度补偿的策略。据解析相关论文?End-to-endProjectorPhotometricCompensation?还入选了CVPR2019的oralpresentation代码已经开源。论文地址s:/
2、arxiv.org/abs/1904.04335v1黄兵姚1,2凌海滨11天普大学2美图亮风台结合实验室亮风台信息科技摘要投影仪光度补偿旨在修改投影仪输入图像使得它可以抑制或者抵消投影外表上面纹理或者图案带来的干扰。在本文中我们首次将补偿问题表述为端到端学习问题并提出一个名为CompenNet的卷积神经网络来隐含地学习复杂的补偿函数。CompenNet由一个类似UNet的骨干网以及一个自动编码器子网组成。这种架构鼓励相机捕获的投影外表图像以及输入图像之间的丰富的多级交互因此捕获投影外表的光度以及环境信息。此外视觉细节以及交互信息是在多级跳过卷积层中进展的。该架构对于投影仪补偿任务十分重要因为在
3、理论中仅允许使用很小的训练数据集来保证模型学习的速度。我们做出的另一项奉献是一种新颖的评估基准它独立于系统设置因此可以进展定量验证。据我们所知由于传统评估要求硬件系统实际投影最终结果因此以前无法获得此类基准测试。从我们的端到端问题公式出发我们的主要思想是使用合理的替代来防止这种投影经过进而到达独立于系统设置的评估标准。我们的方法在基准测试中得到了仔细的评估结果说明我们提出的解决方案在定性以及定量指标上都优于现有技术程度。1.介绍图1.(a)正常光照下的具有纹理以及颜色的投影屏幕。(b)投影仪投射的图片也是我们想要看到的效果。(c)相机拍摄到的没有补偿的投影结果即将(b)直接投影到(a)上。(d
4、)我们模型计算出的补偿图。(e)相机拍到的补偿后的效果即将(d)投影到(a)上。比拟(c)以及(e)我们看到明显提升的效果以及细节。投影仪广泛用于演示电影构造光以及投影映射等应用。为了保证用户看到的投影质量现有的投影仪系统典型地要求投影外表屏幕是白色以及无纹理的并且处在在合理的环境光照下。然而这种要求在很大程度上限制了这些系统的适用性。为解析决以上限制投影仪光度补偿或者简称投影仪补偿旨在通过修改投影仪输入图像来补偿投影外表和相关的环境光度。如图1所示其中补偿的投影结果e明显比未补偿的投影结果c更令人视觉舒适。典型的投影仪补偿系统包括相机-投影仪对以及放置在固定间隔以及方向上的投影外表。首先投影
5、仪将一系列采样图像投射到投影外表然后投射的采样图像会根据投影外表材料被吸收被反射或者被折射。一旦相机捕获了所有投影的采样图像我们会根据投射的以及捕获的采样图像对来拟合一个从投影仪输入图到相机捕获图的复合辐射传递函数。然后使用该函数或者其反函数推断新的投影仪输入图像的补偿图像。现有的解决方案通常显式地地对补偿函数进展建模其中通过各种简化的假设使得补偿函数的估计变得容易。然而这些假设往往是违背实际情况的例如依赖于背景第2节。此外由于投影反射以及捕获这个光学经过的宏大复杂性对补偿经过显式建模几乎是不可能的。在本文中我们首次提出了端到端投影仪补偿方案用以解决上述问题。我们首先将补偿问题重新定义为一种可
6、以在线学习的新颖形式如同投影仪补偿实际要求的那样。这种问题构造就使得我们开发出一种名为CompenNet的卷积神经网络CNN以隐含地学习复杂的补偿函数。十分是CompenNet由两个子网组成一个类似UNet的骨干网以及一个自动编码器子网。首先自动编码器子网鼓励相机捕获的投影外表图像以及投影仪输入图像之间的丰富的多层次交互这样我们可以提取到投影外表的光度以及环境信息。其次类似UNet的骨干网络我们也使用多级跳过卷积层将视觉细节以及交互信息传送到更深层以及输出层。这两个子网共同使CompenNet在理论中有效并使得CompenNet学习从相机捕获到的投影图像到投影仪输入图像的复杂反向映射。此外我们
7、还设计了一个预训练方案只需牺牲一点准确度就可以进一步进步网络训练效率。本文讨论的另一个问题是目前这个领域缺乏一个投影仪补偿模型的评价基准主要是因为传统评价高度依赖于环境设置。详细地讲为了评估补偿算法理论上其实验结果是需要实际投影以及捕获然后再定量地与真值进展比拟。这个经过使得分享一样的评价基准不实在际的。在我们这项工作中我们提出一个替代评价协议该协议不要务实际投影。这样我们首次构建了一个可分享的独立于环境设置的评价基准。本文提出的投影仪补偿网络即CompenNet在替代评价基准上进展评估该基准经过精心设计以涵盖各种具有挑战性的因素。在实验中与最先进的解决方案相比CompenNet显示出明显的优
8、势。总之在本文中我们做出以下奉献1.我们首次提出了一种用于投影仪补偿的端到端解决方案。这种解决方案允许我们的系统有效地以及隐式地捕获投影仪补偿经过中涉及的复杂光学经过。2.我们提出的CompenNet有两个重要的子网它们可以让投影外表以及投影仪输入图像之间实现丰富的多层次交互并通过网络传输交互信息以及构造细节。3.我们提出了一种预训练方法以进一步进步我们系统的实用效率。4.我们首次构建了与独立于环境设置的投影仪补偿评价基准这有助于这个领域将来的研究工作。源代码基准测试以及实验结果可在s:/github/BingyaoHuang/CompenNet上获得。2.相关研究理论上投影仪补偿经过是一个非
9、常复杂的非线性函数涉及相机以及投影仪传感器的辐射响应镜头失真/渐晕散焦外表材料反射特性以及互相反射。目前已有大量的研究致力于设计实用以及准确的投影仪补偿模型这些模型大致可分为情景相关以及情景独立的模型。详细的讨论可以在4,12中找到。情景独立的方法通常假设在投影仪输入图像以及相机捕获图像的像素之间存在近似的一对一映射即相机捕获图像的像素仅取决于其对应的投影仪输入图像的像素以及被这个投影仪像素照明的外表块。即每个像素大致独立于其邻域像素。Nayar等人的先驱工作提出了一种线性模型该模型使用33颜色混合矩阵将投影仪光线亮度映射到相机检测到的辐照度。Grossberg等通过在相机捕获的辐照度上添加3
10、1矢量来改善Nayar的工作并对环境光照进展建模。然而他们需要一个光谱辐射计来标定相机的均匀辐射响应函数。此外正如20中所指出的即使使用光谱辐射计通常也会违背均匀辐射响应的假设更不用讲线性度。考虑到传递函数的非线性Sajadi等用93729个采样图像拟合了一个平滑的高维Bezier贴片模型。Grundhofer以及Iwai提出了一种基于薄板样条TPS的方法并将采样图像的数量减少到53125并通过全局优化步骤进一步处理剪切误差以及图像平滑度。除了以数学方式优化图像颜色之外有一些方法还十分关注人类视觉感悟特性例如Huang等人通过探究人类视觉系统的色彩适应以及感悟锚定属性来生成令人视觉愉悦的投影图
11、像。此外使用色域缩放可最大限度地减少由于相机/投影仪传感器限制导致的剪切伪影。尽管以上方法在很大程度上简化了投影仪补偿问题但由于诸如投影仪以及投影外表的间隔透镜畸变散焦以及外表互相反射等许多因素在理论中通常会违背情景独立的假设。此外显然一条投影仪射线可以照射多个外表块一个外表块可以以被其周围外表块的互相反射来照明并且相机像素也是由多条贴片反射的光线确定的。情景相关的方法通过考虑来自邻域的信息来补偿像素。Grundhofer等通过先前分析投影外表以及图像来处理视觉伪像并进步亮度以及比照度。Li等通过稀疏采样以及线性插值将采样图像的数量减少到至少两个。他们提取多维反射矢量作为颜色传递函数控制点。由
12、于采样点的尺寸小这种方法可能是敏感的投影或者聚焦以及镜头渐晕。使用这些不可靠的样本进展简单的线性插值可能会增加补偿误差。除了计算一个补偿模型Aliaga等引入了运行时线性缩放操作来优化多个投影仪补偿。Takeda等提出了一种使用紫外LED阵列的互相补偿方法。情景相关类方法通常通过集成更多信息来改良先前的情景独立的方法。然而由于全局照明投影外表以及输入图像之间的复杂互相作用很难对理想的补偿经过进展建模或者近似。此外大多数现有工作集中于减少像素颜色误差而不是同时改善与目的图像的像素颜色误差以及构造相似性。我们的方法属于情景相关类并且实际上通过使用CNN构造来捕获更丰富的情景信息。作为第一个端到端的
13、基于学习的解决方案我们的方法隐式且有效地模拟了复杂的投影仪补偿经过。此外我们提出的评价基准是第一个可以被分享的可验证的定量评估的基准。我们的方法其实受到了最近的基于深度学习的图到图迁移模型的启发如pix2pixCycleGAN风格转移图像超分辨率以及图像着色等。也就是讲作为第一个基于深度学习的投影仪补偿算法我们的方法与这些研究有很大的不同并且有其特殊的约束条件。例如与上述训练一次然后就可以运用在不同场景的CNN模型不同在我们的场景下假如系统设置发生了变化那么需要快速重新训练投影仪补偿模型。然而在理论中收集训练图像以及训练模型都是耗时的。此外诸如图像裁剪以及仿射变换之类的数据增强不适用于我们的任
14、务因为每个相机像素与其对应的投影仪像素的邻域和由像素照射的投影外表贴片强耦合。此外一般图到图的迁移模型不能拟合在全局光照投影仪背光以及投影外表之间的复杂光谱互相作用。事实上在我们的实验评价中我们所提出的方法在定性以及定量指标上明显的优于经典的pix2pix模型。3.深度投影仪补偿3.1问题定义我们的投影仪补偿系统包括一个相机-投影仪对以及一个平面投影外表。令投影仪输入图像为x;并让投影仪以及相机的复合几何投影以及辐射传递函数分别为p以及c。设外表光谱反射特性以及光谱反射函数分别为s以及s。让全局照明辐照度分布为g然后相机捕获的图像x由下式给出投影仪补偿的问题是找到一个投影仪输入图像x*名为x的
15、补偿图像使得相机捕获的图像与所祈望的观看者感悟图像一致即然而在上述情况下的光谱互相作用以及光谱响应是非常复杂的并且传统方法并不能很好的解决。此外理论中也很难直接测量g以及s。出于这个原因我们使用相机捕获的全局照明以及投影仪背光下的外表图像并用这张图捕捉它们的光谱互相作用图2所提出的投影仪补偿管道的流程图包括三个主要步骤。a投影并捕捉投影外表图以及一组采样图像。b使用投影外表图以及捕获的图像对训练所提出的CompenNet即。c利用训练的模型补偿输入图像y并投影。其中x0理论上是一张全黑的图。实际上即使输入图像为黑色投影仪也会输出一些背光px0因此我们将这个因子封装在s中。当全局照明较低时s会受
16、到因相机动态范围导致的色域剪切影响因此我们将x0设置为纯灰色图像以提供一些照明。将方程式2中的复合辐射传递函数表示为并用s代替g以及s我们得到补偿问题为其中是的逆函数显然没有闭解。3.2基于学习的表述基于学习的解决方案的关键要求是可用的训练数据。在下文中我们推导出一种采集此类数据的方法。观察3.1中的问题表述我们发现这说明我们可以从采样的xx以及一张投影外表图学习如图3所示。事实上一些先前的解决方案使用了类似的想法来拟合但是基于一些简单的假设以及没有考虑s。相反我们使用深度神经网络解决方案重新制定投影仪补偿问题该解决方案可以保持投影仪补偿的复杂性。十分是我们使用端到端可学习卷积神经网络对补偿经
17、过进展建模该网络名为CompenNet本文中表示为见图2b使得其中x是x不是x的补偿包含可学习的网络参数。值得注意的是只要环境设置不变就可以固定s因此在训练以及预测中只需要一个s。通过使用方程式5我们可以生成N个训练对表示为然后利用损失函数L可以学习CompenNet我们的损失函数旨在通过结合逐像素L1范数以及SSIM损失来共同优化补偿图像的构造与目的图像的相似性这种损失函数优于其他损失函数的优点显示在39以及我们在表3以及图5中的综合实验比拟中。3.3网络设计基于上述公式我们的CompenNet设计有两个输入图像x以及s分别对应于相机捕获的未补偿图x以及相机捕获的投影外表图。网络架构如图3所
18、示。两个输入以及输出均为2562563RGB图像。两个输入图像都被馈送到一系列卷积层以进展降采样并提取多级特征图。请注意在图3中我们给出两条不同的颜色的途径以指示两个分支不分享权重。然后通过逐点加法组合多级特征图使模型可以学习在全局光照投影背光外表以及投影图像之间的复杂光谱互相作用。图3CompenNet的体系构造省略了ReLU层。所有卷积层由33卷积核组成所有转置卷积层由22卷积核组成。上采样以及下采样层都使用两步。每层的卷积核数量标在其顶部。跳过卷积层以彩色箭头显示为了简介表示层数以及层数标记为layers_filters。学习从相机捕获的未补偿图到投影仪输入图左xx的反向映射与学习从期望
19、观察者感悟的图到补偿图的映射右xx*其实是一样的。我们还通过跳过卷积层将低级交互信息传递给高级特征。在网络中间局部我们通过逐渐增加特征通道来提取丰富的特征同时保持特征图的宽度以及高度不变。然后我们使用两个转置的卷积层逐渐将特征映射上采样到25625632。最后网络的输出是图3底部的三个跳过卷积层以及网络最后层的输出的以及。注意我们在输出之前将输出图像像素值钳位到0,1。我们发现用更多的CNN层以及卷积核例如512个卷积核可以产生更好的补偿结果但是会过拟合并且会增加训练以及预测时间。但是假如某个应用场景更侧重准确而不是速度它可以添加更多卷积层增加迭代次数并相应地捕获更多训练数据。在本文中我们选择
20、图3中的架构来平衡训练/预测时间以及采样数据量。为了使该方法更实用我们还通过使用白色投影外表投影以及捕获NN500个采样图像来提供预训练模型。一旦设置例如投影外表或者全局照明改变我们可以使用较少的例如32个采样图来微调预训练的模型而不是重新捕获500个训练图像。该技术节省了数据准备以及模型训练的时间相对于现有解决方案这更讲明了我们的优势。我们在5.3中证明了预训练模型的有效性。3.4训练细节我们使用PyTorch实现网络模型并使用Adam优化器我们设置10.9以及L2范数惩罚因子设置为10-4。初始学习率设置为10-3并且我们每800次迭代将其衰减5倍。使用KaimingHe的方法初始化模型权
21、重。我们将批量大小设置为64并在两个NvidiaGeForce1080GPU上训练模型1000次迭代完成训练需要大约10分钟500个训练样本。补充材料提供了不同超参数的评估。3.5补偿管道总而言之所提出的投影仪补偿管道包括图2所示的三个主要步骤。a我们首先将纯灰色图像x0以及N个采样图像x1.xN投影到平面投影外表并用相机捕获它们。然后使用单应矩阵将每个捕获的图像变换到投影仪的正视图并使用我们令变换后的相机图为xi。b之后我们采集N个图像对xixi并训练投影仪补偿模型。c最后利用训练模型我们为输入图像y生成补偿图像y*并将y*投影到外表。4.评价基准目前为止还有一个问题没有解决即以前的研究中缺
22、乏一致的定量评估基准主要是因为传统评估实验高度依赖环境设置。理论上为了评估补偿算法其算出的输入图x的补偿图像x*应该被实际投射到投影外表然后再由相机捕获最后与真值进展定量比拟。这个经过显然是不实用的因为它要求所有介入比拟的算法都具有一样的投影仪-相机-环境设置以便公平地比拟不同的算法。在这项工作中根据我们的问题定义我们得出了一个有效的替代评估协议该协议不要务实际的投影。根本上根据方程式5我们用收集训练样本一样的方式采集测试样本。我们可以以用类似的方式评估算法。详细而言我们在与训练集X一样的系统设置下采集M个样本的测试集。然后可以通过平均所有测试集上的输入图像yi及其算法输出的相似度来测量算法性
23、能。上述协议允许我们构建一个投影仪补偿评估基准该基准由K个不同设置组成每个设置具有训练集Xk测试集Yk以及外表图像skk1.K。系统配置。我们的投影仪补偿系统包括图像分辨率为960640的佳能6D相机和分辨率为800600的ViewSonicPJD7828HDLDLP投影仪。相机与投影仪之间的间隔为500mm投影外表在相机-投影仪对前方约为1,000mm。相机曝光形式对焦形式以及白平衡形式设置为手动在数据收集以及系统验证期间固定全局照明。数据集。为了获得尽可能多样化的采样颜色以及纹理我们从因特网下载700个彩色纹理图像并且对于每个训练集Xk使用N500对于每个测试集Yk使用M200。总共K24
24、个不同的设置准备用于训练以及评估。将来的工作可以复制我们的结果并在基准测试中与CompenNet进展比拟而无需复现我们的环境设置。有关更多相机捕获的补偿结果以及基准测试的详细配置请参阅补充材料。链接:/dabi.temple.edu/hbling/publication/CompenNet_sup.pdf5.实验评估5.1与现有技术进展比拟我们将我们的投影仪补偿方法以及情景独立的TPS模型改良的TPS模型下面解释以及经典的图到图迁移模型pix2pix在我们的基准库上进展了比拟。我们首先捕获了原始TPS方法中使用的125对纯色采样图像。我们还使用我们了多样化的纹理训练集Xk来训练TPS方法并命名
25、为TPStextured。表1以及图4中的实验结果说明这使得TPS在原始TPS方法上有改良。然后我们将我们的方法与pix2pix进展比拟以证明投影仪补偿问题的挑战和我们的配方以及架构的优势。我们采用了pix2pix的默认实现并根据补偿问题对其进展了一些调整1如2所述数据增强会破坏投影仪相机以及投影外表的强耦合因此我们禁用裁剪调整大小以及翻转进而在相机外表以及投影仪图像之间进展耦合。2我们训练pix2pix模型时批量大小设置为1并进展10000次迭代这大约需要10分钟。比拟结果说明我们的方法在此任务上的表现优于pix2pix。我们发现当数据大小增加时TPStextured获得略微增加的SSIM并
26、略微降低的PSNR。当训练数据大小为250时Pix2pix显示最低的PSNR以及SSIM当训练数据大小为500时其具有最高的PSNR以及SSIM。当训练数据大小从125增加到500时只有建CompenNet实现更高的PSNR以及SSIM表1。尽管CompenNet的性能有所进步但大数据量的缺点是增加了数据捕获时间。实际上拍摄数百张采样图像非常耗时因此针对有限的训练对以及训练时间时我们提出了一种预训练模型其性能优于默认模型5.3。除了上述的现有技术我们还测试了不基于模型的“连续反应的优化方法并发现它运作良好。然而它的缺点是每个单帧都需要收集几个真实的投影捕获以及迭代。因此该方法不太实用也不能用于
27、替代评估基准。5.2外表图像的有效性为了展示我们提出的基于学习的问题定义以及投影外表图是模型的一个必要输入我们比拟了没有外表图输入以及相应的自动编码器子网的CompenNet我们将其命名为CompenNetw/osurf。结果如表1所示。首先当模型输入CompenNet中包含s时我们可以看到PSNR以及SSIM的明显增加和RMSE的下降。这说明我们基于学习的公式比忽略外表图像中编码的重要信息的模型具有明显的优势。其次在PSNRRMSE以及SSIM指标上即使CompenNetw/osurf没有s也优于TPSTPStextured以及pix2pix。值得注意的是对于新的投影环境设置仅仅更换外表图像
28、效果不佳我们必需要从头开场训练新的CompenNet。幸运的是通过预先训练的模型我们可以从合理的初始化中进展微调以减少训练图像的数量以及训练时间。5.3预先训练的模型的有效性我们比拟默认的CompenNet模型使用He的初始化以及用投射到白色外表的500个训练对预训练的模型。然后我们在多个不同设置下训练以及评估的两个模型。图4不同外表上TPSTPStexturedpix2pix以及CompenNet的比拟。第1列是相机捕获的投影外表。第二列是相机捕获的未补偿投影图像。第3至第6列是不同方法的相机拍摄到的补偿结果。最后一列是投影仪输入图的真值。每个图像都配有两个放大的小图以便进展详细比拟。当使用
29、各种纹理图像进展训练时TPS比使用纯色图像的原始版本产生更好的结果但仍然存在硬边缘块状效果以及颜色错误。与CompenNet相比pix2pix会产生不平滑的像素化细节以及颜色错误。图5CompenNet的定性比拟训练损失函数分别为L1L2SSIM以及1SSIM。它说明L1以及L2损失函数无法成功地补偿外表图案。1SSIM以及SSIM损失函数产生类似的结果但SSIM放大图中的水比1SSIM以及真值的更蓝。为了证明预训练模型在有限的训练对以及训练时间内获得改良的性能我们仅使用32个训练对以及500次迭代训练模型。结果报告在表2中。显然我们看到预训练的模型优于默认CompenNet即使是24个训练以
30、及评估设置也有不同的照明以及外表纹理作为预先训练的设置。我们的解释是尽管外表具有不同的外观但预训练模型已经学习了局部辐射传递函数表1补偿算法的定量比拟。结果在K24个不同设置上取平均值。这种预先训练的模型使我们的方法更加实用即只要不改变投影仪以及相机就可以用更少的训练图像快速微调预训练模型进而缩短图像捕获以及训练时间。另外用32个训练对以及500此迭代训练的CompenNet比表1中的TPSTPStextured以及pix2pix表现更好。此外CompenNet的参数1M比pix2pix的默认生成网络54M参数少得多。这进一步证实了投影仪补偿是一个复杂的问题并且不同于一般的图到图迁移任务精心设
31、计的模型是解决该问题所必需的。5.4不同损失函数的比拟现有的传统工作用逐像素L2损失函数来线性/非线性回归得到复合辐射传递函数这种损失函数会过度平滑构造细节的同时惩罚大的像素误差。我们研究了四种不同的损失函数即逐像素L1损失逐像素L2损失SSIM损失以及1SSIM损失。定性以及定量比拟分别如图5以及表3所示。与SSIM损失函数相比逐像素L1以及L2损失函数不能很好地补偿外表图案注意图5中红色放大的图中的硬边缘。与定性结果一致表3中也显示出逐像素L1以及L2损失函数明显缺点。固然仅实用SSIM损失可以获得最正确的SSIM值但其PSNR以及RMSE是第二差的。经过我们的全面实验我们发现1SSIM损
32、失获得了最正确的PSNR/RMSE以及第二好的SSIM因此我们选择它作为我们的CompenNet的损失函数。此外即使我们用逐像素L1损失训练CompenNet它也比TPSTPStextured以及pix2pix在三个指标上好这进一步讲明了我们针对任务设计的公式以及网络构造的优势。表2使用He方法随机初始化的CompenNet以及预训练的CompenNet之间的定量比拟两者均仅使用32个样本训练500次迭代批次大小为32训练耗时大约170s。表3不同损失函数下CompenNet的定量比拟。5.5缺点以及缺乏我们专注于为投影仪补偿问题引入第一个端到端解决方案该方法可用于平面的不一定是理想的反射/几
33、何质量的投影外表。此外我们还没有针对具有特殊反射性能的外表比方水强光反射几何互相反射以及半光泽的外表进展实验因此在这些情况下我们的模型可能效果不佳。6.结论在本文中我们将投影仪补偿问题重新表述为一个学习问题并提出一个名为CompenNet的准确实用的端到端解决方案。十分是CompenNet明确捕获了环境投影外表以及投影仪图像之间复杂的光谱互相作用。我们的数学模型以及架构的有效性得到了综合评估的验证。此外我们首次为社区提供了一种新颖的独立于设置的评估基准数据集。我们的方法在该基准测试中得到了仔细评估结果说明我们的端到端学习解决方案在质量以及定量上都超过了现有方法。为了使我们的模型更加实用我们提出了一种预训练方法它更增加了我们方法相对于现有工作的优势。*本文为AI科技大本营投稿文章转载请联络原征稿推荐浏览学术界“失守IEEE制止华为员工介入审稿学界抗议美政府