《基于贝叶斯框架融合深度信息的显著性检测-赵宏伟.pdf》由会员分享,可在线阅读,更多相关《基于贝叶斯框架融合深度信息的显著性检测-赵宏伟.pdf(8页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、Opto-Electronic Engineering 光 电 工 程 Article2018年,第45卷,第2期170341-1 DOI: 10.12086/oee.2018.170341 基于贝叶斯框架融合深度信息的显著性检测 赵宏伟*,何劲松 中国科学技术大学信息科学技术学院,安徽 合肥 230027摘要: 复杂背景下,传统显著性检测方法经常遭遇检测结果不稳定和准确率低的问题。针对这些问题,提出一种基于贝叶斯框架融合深度信息的显著性检测方法。首先利用全局对比、局部对比和前景背景对比方法获取颜色显著图,并利用非均质中心 -邻居差异的深度对比方法获取深度显著图。其次采用贝叶斯模型融合颜色显著
2、图和深度显著图,获得输出显著图。实验结果表明,本文的方法能有效检测出复杂背景下的显著目标,并在公开的 NLPR-RGBD 数据集和NJU-DS400 数据集上取得较高检测精确度。 关键词: 显著性检测;颜色对比度;深度对比度;贝叶斯融合 中图分类号: TP391.41 文献标志码: A 引用格式: 赵宏伟,何劲松 . 基于贝叶斯框架融合深度信息的显著性检测 J. 光电工程, 2018, 45(2): 170341 Saliency detection method fused depth information based on Bayesian framework Zhao Hongwei*
3、, He Jinsong School of Information Science and Technology, University of Science and Technology of China, Hefei, Anhui 230027, China Abstract: In the complex background, the traditional saliency detection methods often encounter the problems of unstable detection results and low accuracy. To address
4、 this problem, a saliency detection method fused depth in-formation based on Bayesian framework is proposed. Firstly, the color saliency map is obtained by using a variety of contrast methods which includes global contrast, local contrast and foreground-background contrast, and the depth saliency ma
5、p is obtained by using the depth contrast method based on the anisotropic center-surround difference. Secondly, using the Bayesian model to fuse the color-based saliency map and the depth-based saliency map. The experimental results show that the proposed method can effectively detect the salient ta
6、rgets under complex back-ground and achieve higher detection accuracy on the published NLPR-RGBD dataset and NJU-DS400 dataset. Keywords: saliency detection; color contrast; depth contrast; Bayesian fusion Citation: Zhao H W, He J S. Saliency detection method fused depth information based on Bayesia
7、n frameworkJ. Opto-Electronic Engineering, 2018, 45(2): 170341 1 引 言 显著性检测广泛应用于计算机视觉处理中,例如人群异常检测1和图像融合2等。显著性检测的目的是使计算机视觉通过模拟人类的视觉注意机制,检测图像中的显著目标,滤除背景信息,从而只关注人类视觉感兴趣的图像区域。目前,显著性检测在计算机视觉领域有着十分广泛的应用,包括感兴趣目标的图像 收稿日期: 2017-08-18; 收到修改稿日期: 2017-12-01 作者简介: 赵宏伟(1991-),女,硕士研究生,主要从事模式识别的研究。E-mail:SA 万方数据光电工程
8、 DOI: 10.12086/oee.2018.170341 170341-2 分割、目标识别、自适应图像压缩、内容感知的图像编辑和图像检索等。显著性检测方法主要分为两类:一类是自下而上基于数据驱动的显著性区域检测,另一类是自上而下基于任务的目标突显。前者具有快速、下意识、完全由数据驱动的特点,而后者则是慢速的、且由目标驱动。 在显著性检测方面,Itti 等人3提出的计算颜色、方向和光照三个基本特征的算法是显著性领域发展的基础,该算法首次提出了基于生物学机理的模型,为显著性检测的发展奠定了基础。Achanta 等人4提出在Lab 颜色空间利用像素颜色与平均颜色差来度量显著性,但该方法仅考虑了一
9、阶平均颜色,难以分析复杂的自然图像。Hou 等人5提出基于空间频率分析的剩余谱方法。Zhai 等人6提出了基于视频利用时空线索的显著性检测方法。Harel 等人7提出了基于图论的显著性检测算法。Cheng等人8-9提出了两种基于全局对比度的显著性检测方法(简称 HC 方法和RC方法),根据超像素之间的特征对比,获得显著性检测结果。Lu等人10提出了基于稀疏和稠密重建误差的显著性检测方法(简称 DSR 方法),该方法利用四周背景先验,提取图像的四周边缘构建字典,将图像在字典上进行重构,根据重构误差获得显著图。以上传统显著性检测方法主要依赖颜色信息,当遭遇复杂背景时,如存在背景颜色干扰,检测效果难
10、以保证。 近几年,随着 3D 图像技术的快速发展,一些显著性检测算法尝试融合深度信息以提高算法的检测能力。Desingh 等人11探究了深度信息在显著性检测中的作用,并通过在数据集上学习一个SVM回归模型,将利用深度信息获取的显著图和利用颜色信息获取的显著图进行融合以得到最终显著图。Peng 等人12将超像素的深度值与 Lab颜色空间的三通道分量,以及超像素的坐标组成一个联合特征。然后通过多种对比方式获取超像素的对比度,最后加入高层目标先验优化显著图。 Ren等人13根据超像素的显著值与其深度成反比的关系获得深度显著图,然后利用显著图相乘的方式将深度显著图与利用其它信息获得的显著图进行融合。林
11、昌等人14根据颜色信息获取初始显著图,然后设定深度误差阈值,利用像素点的深度值进一步确定显著区域内物体的轮廓、数目以及物体间的相互关系。Zhang 等人15首先根据相邻视图之间的差异生成深度图,并利用颜色信息和物体运动信息获取颜色显著图和运动显著图,然后利用深度图加权颜色显著图和运动显著图以获取最终显著图。以上文献表明,将深度信息与颜色信息相融合,可以提高显著性目标的检测效果。 提出一种基于贝叶斯框架融合深度信息的显著性检测方法。首先利用多种颜色对比方法获取颜色显著图,并非均质中心-邻居差异的深度对比方法获取深度显著图。然后采用贝叶斯融合模型,依次将深度显著图和颜色显著图中像素的显著值作为先验
12、,获取更为可靠的后验概率作为最终显著图。实验表明,本文方法能够有效提高复杂背景下(前景背景颜色低对比度)显著性检测的效果。 2 本文算法流程 如图 1 所示是本文的算法框架,整个框架共有两条支路。上面的一条支路用于处理RGB图,获取颜色显著图。首先从RGB图像中提取特征,然后经过局部对比、全局对比和前景背景对比获得超像素的对比度,经过目标偏置的高斯平滑,进一步滤除背景噪声后获得颜色显著图。下面的一条支路从深度图中提取超像素的深度值作为特征,经过非均质中心-邻居差异的深度对比方法获得超像素的深度对比度,经过目标偏置的高斯平滑滤除背景噪声后获得深度显著图。最后采用贝叶斯概率融合模型,融合颜色显著图
13、和深度显著图,获得最终的融合显著图。 图 1 算法框架图 Fig. 1 The architecture of our algorithm 目标偏置的高斯平滑目标偏置的高斯平滑前景背景对比局部对比全局对比深度对比超像素分割超像素分割深度图RGB图贝叶斯融合融合显著图分割标签万方数据光电工程 DOI: 10.12086/oee.2018.170341 170341-3 本文设计的显著性检测框架,分别对深度信息和颜色信息进行独立处理,最后采用决策级贝叶斯融合模型进行显著图融合。颜色信息的处理中,全局对比有利于在整幅图像中建立显著性模型,局部对比可以在邻居区域内获得目标的精确显著值,前景背景对比有利
14、于抑制图像四周背景噪声,本文结合全局对比、局部对比和前景背景对比的多种对比方式,能够在突出目标整体性的同时获得目标的精确显著性。深度信息的处理中,采用非均质中心-邻居差异对比方法能够在突出近处物体的同时抑制由远及近的平面。一些显著性检测方法16-18利用中心先验指导显著图滤波,以抑制背景噪声。然而,当显著性目标不在图像中心位置时,这种中心偏置的滤波方法是不合适的。为了能更有效地滤出背景信息,本文采用目标偏置的高斯滤波处理颜色显著图和深度显著图。算法最后采用贝叶斯融合模型融合深度显著图和颜色显著图,将深度显著图和颜色显著图互为先验,获取更为可靠的后验概率作为输出显著图。 2.1 特征提取 为减少
15、算法的计算复杂度,显著性检测方法10-15通常采用超像素分割对输入图像进行预处理。本文采用 SLIC 超像素分割方法19对输入的 RGB 图像进行超像素分割,然后根据RGB图像的超像素分割标签指导相应深度图的超像素分割,从而获取深度图的超像素分割结果。 2.2 对比度计算 首先采用全局对比、局部对比和前景背景对比方法处理输入的RGB图,获取颜色显著图。文献20指出,颜色和空间位置是指导视觉注意的属性,因此,本文从输入的RGB图像中提取特征F=L, a, b, x, y进行全局对比、局部对比和前景背景对比的计算。其中,L, a, b表示超像素在Lab颜色空间的三个分量,(x, y)表示超像素的中
16、心坐标。 记超像素 i 的全局对比度、局部对比度和前景背景对比度分别为GiS 、LiS 和BiS ,则超像素 i的全局对比度、局部对比度和前景背景对比度)BL,G,( RSRi公式如下: -=RnjipjiicjiRippccS1222|exp2|explog, (1) 其中: BL,G,R ,当进行全局对比、局部对比和前景背景对比时,Rn 分别代表Gn 、Ln 和Bn ,即全局超像素数目、超像素 i 所属的局部区域的超像素数目和背景区域中包含的超像素数目。c 表示从 Lab 颜色空间提取的颜色特征L, a, b,p则表示超像素的空间坐标(x, y)。 经过多种对比获取的初始颜色显著图为 BL
17、GMSSSS = , (2) 其中: 、 和 分别表示利用全局对比、局部对比和前景背景对比方式获得的对比度显著图。 其次,从深度图中提取超像素的平均深度值作为深度特征 F=d,采用文献21提出的非均质中心-邻居差异的深度对比方法计算像素点 i 的深度对比度,计算公式如下: =81pidipSS , (3) )min(kpiiddSp-= , (4) 其中:2,2min,1WHk 为射线长度, 8,2,1 Kp , piS 是指像素点i在第 个射线方向上的深度差,H为输入图像的高度,W为输入图像的宽度。计算所有超像素的深度对比度,获得输入图像的初始深度显著图 。 2.3 目标偏置的高斯平滑 为了
18、进一步滤除初始颜色显著图和初始深度显著图中的背景噪声,本文采用文献10中提出的目标偏置的高斯平滑方法对前文获得的初始颜色显著 和初始深度显著图 进行滤波。高斯模型表达式如下: -+-=2222exp)(yyaxxauyuxaG, (5) 其中: 是像素a在规范化的像平面X-Y中的坐标, ),(yxuu 是显著目标中心的坐标。 2.4 贝叶斯融合 本文采用贝叶斯融合模型融合前文获得的深度显著图和颜色显著图。依次将深度显著图中像素的显著值和颜色显著图中像素的显著值作为先验概率,计算获得两幅后验概率显著图,将两幅后验概率显著图相乘结果作为输出显著图。 记 )(DFiS 为像素点 i 在深度显著图中属
19、于前景区域, 为像素点i在深度显著图中属于背景区域,为像素点 i 在颜色显著图中属于前景区域,万方数据光电工程 DOI: 10.12086/oee.2018.170341 170341-4 为像素点i在颜色显著图中属于背景区域。 首先,将深度显著图中像素点的显著值归一化到0,1区间,并将归一化后像素 i 的显著值 作为此像素属于前景区域的概率 )(DFiS ,则在深度显著图中像素i属于背景区域的概率 的计算公式为 )(1)(DFDBiSiS -= , (6) 其次:通过选取阈值,将深度显著图进行二值分割,获取前景区域 FD和背景区域 BD。根据在深度显著图中记录下来的前景像素区域和背景像素区域
20、,获取颜色显著图中相应前景区域和背景区域的像素点数目DMFN 和DMBN ,并获取像素点的显著值统计直方图。设像素点i在颜色显著图中的显著值为 ,则此时像素点i的条件概率表示为 在上述显著值统计直方图中所在的位的值。像素点 i 的条件概率计算公式如下所示: DMFMDMFDFM)()(|)(NiVNiSiV = , DMBMDMBDBM)()(|)(NiVNiSiV = , (7) 其中: )(MDMFiVN 表示上述前景区域的显著值统计直方图中包含 的位的像素点数目,表示上述背景区域的显著值统计直方图中包含 的位的像素点数目。 获得先验概率和条件概率后,像素点 i 的后验概率由下式计算: )
21、(|)()()(|)(DFMDFMDFiSiViSiViS = )(|)()(DFMDFiSiViS . 1DBMDB)(|)()(-+ iSiViS 。 (8) 交换深度显著图和颜色显著图在上述计算中的位置,将颜色显著图中像素点的显著值作为先验概率,同理上述方法,另一种情况下像素i的后验概率为 )(|)()()(|)(MFDMFDMFiSiViSiViS = )(|)()(MFDMFiSiViS . 1MBDMB)(|)()(-+ iSiViS 。 (9) 最后,将两个后验概率相乘,得到贝叶斯融合显著图为 )(|)()(|)(DMFMDFbayesiViSiViSS = 。 (10) 3 实
22、验结果与分析 为了验证本文方法的有效性,采用两个基准数据集(NLPR-RGBD 数据集12和 NJU-DS400 数据集21)进行了实验。NPLR-RGBD 数据集是由 Peng 等人12在ECCV2014 公开。该数据集包含了超过 400 种目标在11 个类型的场景和光照条件下的 1000 张自然图像。NJU-DS400数据集包含 400 张立体图像,采用光流法生成深度可信的深度图,并提供了真值图。 在实验中,将本文算法与目前检测效果较好的 4种检测方法进行了比较。其中,Cheng 等9提出的全局对比方法定义为RC算法,Lu 等10提出的基于重构误差的方法定义为DSR算法,Ju 等21提出的
23、基于非均质中心-周围对比的显著性方法定义为 ACSD 算法,Peng 等12提出基于超像素级对比度、区域级显著图和目标级显著图相融合的显著性检测方法定义为 LMH算法。 3.1 视觉比较 显著图 图 2 是在 NPLR-RGBD 数据集上的部分显著图的视觉比较结果。其中,第 1 至 3 行的图片中前景与背景之间存在明显的颜色对比(差异),第 4 至 9 行的图片中前景与背景之间颜色相似。从检测结果可以看出,当前景背景之间存在明显的颜色对比时,RC和ACSD能在一定程度上检测出显著目标,DSR 和 LMH 表现出较好的检测结果。当前景背景之间颜色对比度较小时,仅依赖颜色信息的RC方法和DSR方法
24、基本检测不出显著目标或出现错误检测,仅利用深度信息的ACSD 方法能够在一定程度上检测出显著目标,但其背景抑制能力较差,显著图中往往保留了大量的背景噪声。LMH方法结合了颜色信息和深度信息,从检测结果来看,其依然不能有效检测与背景颜色相近的显著性目标。这可能是因为加入深度信息的联合特征使深度信息未能有效发挥作用。与之相比,本文方法检测的显著性目标更加清晰、准确、高亮。 为了更好地展示本文提出的算法在遭遇复杂背景时的优势,挑选了颜色对比度几乎失效时的显著性结果进行比较。如图3所示,其中图3(a1)、3(b1)是源图,图3(a2)、3(b2)是基于颜色对比度的显著图,图3(a3)、3(b3)是基于
25、深度对比度的显著图,图 3(a4)、3(b4)是前两种显著图贝叶斯融合的结果,图3(a5)、3(b5)是真值图。从图 3 第一行可以看出该鸟的羽毛颜色与背景岩石的颜色非常接近,只有后背的羽毛颜色较深与背景有对比度差异。显然这幅图像的颜色显著性很难检测出鸟类的全貌,如图3(a2)所示,而基于深度的显著图可以获得较为明显的轮廓,如图3(a3)所示。两种显著图的融合之后,使得融合显著图更接近真值图。从图 3 第二行,可以发现,花瓶的颜色与背景瓷砖的颜万方数据光电工程 DOI: 10.12086/oee.2018.170341 170341-5 色非常接近,从该行图3(b2)可知基于颜色的显著图几乎没
26、有检测到目标,甚至存在误检测(检测出黑色瓷砖)。从图 3(b3)可知,基于深度的显著图检测出非常完整的花瓶,二者融合的结果也非常接近真值图。由此可见,本文提出的算法当遭遇复杂背景(前景背景之间低颜色对比)时,即使基于颜色对比度的显著图几乎失效,而基于深度的显著图充分利用了深度信息,很好地突显了前景目标,有效地抑制了背景噪声。 3.2 定量评价 精确率 -召回率 (F-Measure)柱状图 本文根据平均准确率(Precision,用Pre表示)、平均召回率(Recall,用Rec表示)和F-Measure(用rF 表示)值比较本文方法与上述 4 种方法的显著性检测效果。F-Measure 是
27、Precision 和 Recall 加权调和平均,是一个常用的评价标准,常用于评价分类模型的好坏。根据平均精确率和平均召回率计算出F-Measure 值: RecPre2RecPre2)1(+=rrFr, (11) 其中:参数2r 是准确率和召回率的调和系数。当参数2r =1时,rF 就是最常见的F1-Measure或者称之为F1 score,既不强调准确率也不强调召回率。当 取值在0 到 1 之间时,强调准确率。当 取值大于 1 时,强调召回率。根据文献4,参数 选择经验值 0.3,以强调准确率。由式(11)可知,F-Measure 值是综合反映图 2 几种显著性检测方法得到的显著图的视觉
28、比较 . (a) 彩色原图 ; (b) RC7; (c) ACSD18; (d) DSR8; (e) LMH10; (f) 本文方法 ; (g) GroundTruth Fig. 2 Visual comparison of saliency maps with several saliency detection methods. (a) Color image; (b) RC7; (c) ACSD18; (d) DSR8; (e) LMH10; (f) Ours; (g) GroundTruth (a)(b)(c)(d)(e)(f)(g)万方数据光电工程 DOI: 10.12086/oee
29、.2018.170341 170341-6 平均准确率和平均召回率的一个参量,可以定量评价显著性检测算法的性能10。 图 4 是在 NLPR-RGBD 数据集上的实验结果。从图 4 中可以看出,RC 方法、DSR 方法和 ACSD 方法的总体检测效果差异不大,取得的平均精确率、平均召回率和F-Measure 值基本相同。LMH方法结合颜色信息和深度信息,并融合超像素级对比度、区域级对比度和目标级对比度,获得了比前三种方法更好的检测效果。本文方法首先采用多重对比方法处理颜色信息,并采用非均质中心-周围差异对比获取深度对比,然后通过贝叶斯融合策略进行融合颜色显著图和深度显著图,获得更为准确的融合显
30、著图。与其他几种方法相比,本文方法在 NLPR-RGBD 数据集上取得了最好的检测效果。 图5是在NJU-DS400数据集上的实验结果。从图5 中可以看出,仅利用了颜色信息的 RC 方法和 DSR方法在 NLPR-RGBD 数据集上取得的检测精确度和F-Measure 值相对较低,利用了深度信息的 ACSD 方法和LMH方法取得的精确度和F-Measure较RC方法和DSR方法有所提高。与其他四种方法相比,本文取得了最高的检测精确度和 F-Measure 值,具有最好的综合检测能力。 众所周知,召回率和准确率二者往往不可兼得。从表 1 可以发现,当采用相加的显著图图像融合策略时,召回率比较高,
31、当采用相乘的策略时,准确率比较好。由于实际的应用场景往往对准确率要求较高,所以选择了贝叶斯相乘的显著图融合策略,以增加鲁棒性和准确率。在标准数据集衡量算法性能时,采用图 3 基于颜色的显著图和基于深度的显著图及其融合结果比较 Fig. 3 Comparison of the color-based saliency map and the depth-based saliency map and fusion results (a1)(b1)(a2)(a3) (a4) (a5)(b2)(b3) (b4) (b5)图 4 在 NPLR-RGBD 数据集上的实验结果 Fig. 4 Experime
32、ntal results on the NPLR-RGBD dataset图 5 在 NJU-DS400 数据集上的实验结果 Fig. 5 Experimental results on the NJU-DS400 dataset RC DSR ACSD LMH Ours 0.50.60.70.8Precision PreRecall RecF-Measure FrPre /Rec/FrRC DSR ACSD LMH Ours 0.5 0.6 0.7 0.8 Precision PreRecall RecF-Measure FrPre /Rec/Fr万方数据光电工程 DOI: 10.12086
33、/oee.2018.170341 170341-7 F-measure 来衡量。本文采用的贝叶斯融合方法综合性能最好。 4 结 论 本文提出了一种利用贝叶斯融合深度信息的显著性检测方法。利用全局对比、局部对比和前景背景对比方法获取颜色显著图,并利用非均质中心-周围差异对比方法获取深度显著图,最后采用贝叶斯融合模型融合颜色显著图和深度显著图,使融合显著图在不同场景图像中均表现出较好的检测效果。在公开数据集NLPR-RGBD 数据集和 NJU-DS400 数据集上与当前先进的 4 种检测方法比较,本文方法有效提高了复杂背景下显著目标的检测效果,并有效抑制了背景噪声。而且,由定量分析结果可以看出,本
34、文方法的检测性能明显优于目前流行的4种显著性检测算法。 参考文献 1 Li M, Chen K, Guo C M, et al. Abnormal crowd event detection by fusing saliency information and social force modelJ. Opto-Electronic Engineering, 2016, 43(12): 193199. 李萌 , 陈恳 , 郭春梅 , 等 . 融合显著性信息和社会力模型的人群异常检测 J. 光电工程 , 2016, 43(12): 193199. 2 Zhang X D, Wang H, Wan
35、g M S, et al. Applications of saliency analysis in focus image fusionJ. Opto-Electronic Engineering, 2017, 44(4): 435441. 张学典 , 汪泓 , 江 旻 珊 , 等 . 显著性分析在对焦图像融合方面的应用 J. 光电工程 , 2017, 44(4): 435441. 3 Itti L, Koch C, Niebur E. A model of saliency-based visual atten-tion for rapid scene analysisJ. IEEE Tr
36、ansactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 12541259. 4 Achanta R, Hemami S, Estrada F, et al. Frequency-tuned salient region detectionC/Proceedings of IEEE Conference on Com-puter Vision and Pattern Recognition, Miami, FL, USA, 2009: 15971604. 5 Hou X D, Zhang L Q. Salien
37、cy detection: a spectral residual approachC/Proceedings of IEEE Conference on Computer Vi-sion and Pattern Recognition, Minneapolis, MN, USA, 2007: 18. 6 Zhai Y, Shah M. Visual attention detection in video sequences using spatiotemporal cuesC/Proceedings of the 14th ACM In-ternational Conference on
38、Multimedia, Santa Barbara, CA, 2006: 815824. 7 Harel J, Koch C, Perona P. Graph-based visual salien-cyC/Proceedings of the 19th International Conference on Neural Information Processing Systems, Canada, 2006: 545552. 8 Cheng M M, Zhang G X, Mitra N J, et al. Global contrast based salient region dete
39、ctionC/Proceedings of 2011 IEEE Confer-ence on Computer Vision and Pattern Recognition, Colorado, CO, USA, 2011: 409416. 9 Cheng M M, Mitra N J, Huang X L, et al. Global contrast based salient region detectionJ. IEEE Transactions on Pattern Analy-sis and Machine Intelligence, 2015, 37(3): 569582. 10
40、 Lu H C, Li X H, Zhang L H, et al. Dense and sparse reconstruc-tion error based saliency descriptorJ. IEEE Transactions on Image Processing, 2016, 25(4): 15921603. 11 Desingh K, Madhava Krishna K, Rajan D, et al. Depth really matters: improving visual salient region detection with depthC/Proceedings
41、 of British Machine Vision Conference, 2013. 12 Peng H W, Li B, Xiong W H, et al. RGBD salient object detection: a benchmark and algorithmsC/Proceedings of the 13th Euro-pean Conference on Computer Vision, Switzerland, 2014: 92109. 13 Ren J Q, Gong X J, Yu L, et al. Exploiting global priors for RGB-
42、D saliency detectionC/Proceedings of 2015 IEEE Con-ference on Computer Vision and Pattern Recognition Work-shops, Boston, MA, USA, 2015: 2532. 14 Lin C, He B W, Dong S S. An indoor object fast detection method based on visual attention mechanism of fusion depth information in RGB imageJ. Chinese Jou
43、rnal of Lasers, 2014, 41(11): 1108005. 林昌 , 何炳蔚 , 董升升 . 融合深度信息的室内 RGB 图像视觉显著物体快速检测方法 J. 中国激光 , 2014, 41(11): 1108005. 15 Zhang Y, Jiang G Y, Yu M, et al. Stereoscopic visual attention model for 3D videoC/Proceedings of the 16th International Multimedia Modeling Conference on Advances in Multimedia M
44、odeling, Chongqing, China, 2010: 314324. 16 Shen X H, Wu Y. A unified approach to salient object detection via low rank matrix recoveryC/Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, RI, USA, 2012: 853860. 17 Borji A, Itti L. Exploiting local and global
45、patch rarities for sali-ency detectionC/Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, RI, USA, 2012: 478485. 18 Perazzi F, KrhenbHl P, Pritch Y, et al. Saliency filters: contrast based filtering for salient region detectionC/Proceedings of 2012 IEEE Conf
46、erence on Computer Vision and Pattern Recognition, Providence, RI, USA, 2012: 733740. 19 Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methodsJ. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 22742282. 20 Wolfe J M, Horowi
47、tz T S. What attributes guide the deployment of visual attention and how do they do it?J. Nature Reviews Neuroscience, 2004, 5(6): 495501. 21 Ju R, Ge L, Geng W J, et al. Depth saliency based on aniso-tropic center-surround differenceC/Proceedings of IEEE In-ternational Conference on Image Processing, Paris, France, 2014: 11151119. 表 1 在 2 个标准数据集上三种显著图融合方法的平均性能比较 Table 1 Average performance comparison of three notable image fusion methods on two standard datasets 融合策略 准确率/(%) 召回率/(%) F-measure/(%)直接相加 0.6201 0.7454 0.6132 直接相乘 0.7773 0.6566 0.710