基于中心环绕滤波器检测的图像特征点匹配算法-孙增友.pdf

上传人:不*** 文档编号:129570 上传时间:2018-05-15 格式:PDF 页数:7 大小:3.56MB
返回 下载 相关 举报
基于中心环绕滤波器检测的图像特征点匹配算法-孙增友.pdf_第1页
第1页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《基于中心环绕滤波器检测的图像特征点匹配算法-孙增友.pdf》由会员分享,可在线阅读,更多相关《基于中心环绕滤波器检测的图像特征点匹配算法-孙增友.pdf(7页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、Joumal of Computer Applications计算机应用,2017,37(12):35473553ISSN 100l-9081CODEN JYIIDU20171210http:mvwjocacn文章编号:1001908l(2017)12354707 DOI:1011772jissn100l90812017123547基于中心环绕滤波器检测的图像特征点匹配算法孙增友,段玉帅,李 亚(东北电力大学信息工程学院,吉林吉林132012)(+通信作者电子邮箱sunzengyou163com)摘要:针对传统图像匹配算法特征点检测稳定性和准确性差的问题,提出一种尺度不变性的基于中心环绕滤波器

2、检测(scFD)的图像特征点匹配算法。首先,构建多尺度空间,利用中心环绕滤波器检测图像在不同尺度下的特征点,采用Ha而s方法和亚像素插值获得稳定的特征点;其次,联合快速定向旋转二进制稳健基元独立特征(BRIEF)(ORB)算法确定特征点的主方向,构建特征点描述算子;最后,采用汉明距离完成匹配,通过最小平方中值(LMeds)定理和最大似然(ML)估计剔除误匹配点。实验结果表明,在尺度变化时,所提算法的匹配精度达到966,是0RB算法的2倍;其运行时间是尺度不变特征变换(sIFTr)的198,加速鲁棒性特征(suRF)的283。所提算法能够有效提高特征点检测的稳定性和准确性,在视角、尺度缩放、旋转

3、、亮度等变化的情况下具有较好的匹配效果。关键词:特征点匹配;尺度不变性;特征点检测;快速定向旋转二进制稳健基元独立特征;最小平方中值定理中图分类号:TP3914 文献标志码:AImage fhtIlre point matclling algorithm b嬲ed on center surmund mter detectionSUN Zen#ou,DUAN Yushuai,U Ya(_11002 0,蜘rrM砌n E昭i耻e一,嗨舶nk邯EkI庇P0删er h沁乃咄埘胁川讥132012,吼iM)Abs帆t:Aiming at the pmblems 0f poor stability and

4、 accumcy of feature point detection in traditional image matchingalgorithms,a new image feature point m砒ching algorithm based on Scaleinvariant Center s哪und Filter Detection(SCFD)was pmposed Firsdy, a multiscale space was constructed, a center sunuund filter was used to detect f毫ature points of aima

5、ge at dibrent scales, H痢s method卸d subpixel interpolation were applied to acquire the stable feature pointsSecondly,0riented fast and Rotated Binary Robust Independent Elementary Feature(BRIEF)(ORB)a190rithm w硒combinedto confi丌Il tlle main direction of feature points aIId constmct the description op

6、emtor of feature points FinaUy, H啪mingdistance was used to complete the matchin昏 kast Median Squares(LMeds) theorem and Ma)【imum“kelihood(ML)estimation were used to eliminate wrong matching points The experimental results show that, the matching precision of theproposed algorithm is up to 966,which

7、is 2 times of that of the 0RB algorithm when the scale changesThe mnning timeof the pmposed algorithm is 198of tIlat of Scale Inv捌鲫t Feature Transfornl(SIFT)aIld 283o“hat of Speed-UpR0bust Feature(SURF)卟e pmposed algorithm can e艉ctively impmve the stability and accuracy of feature point detection,an

8、d h鹊better matching e丘ects under the ciIums协ces of di珏Ierent ande of view, scale scaling, mtation ch帅ge andbrightness v撕ationKey words:feature point matching; scale inv耐aIlce;feature point detection; 0riented如t a11d Rotated Binary RobustIndependent Elementary Feature(BRIEF)(0RB);Least Median Squares

9、(UuedS)tIeorem0 引言图像匹配的任务是建立两张图像中同一场景部分之间的对应,这在计算机视觉应用中是一个重要的问题,如目标检测、图像索引2 J、视觉定位1和视觉导航”o等方面。其中大部分应用都受到实时性和稳定性的限制,尤其是在视觉定位系统中,由于采集的图像来自于不同的时间,采集图像的视角不同,以及受到环境中光照和噪声的影响,拍摄图像的边缘轮廓会存在较大的差异,甚至图像会十分模糊、噪声干扰较大。因此设计出一种能够快速提取稳定的特征点,同时最大限度提高图像匹配准确度和抗干扰能力的算法具有重要意义。图像匹配算法可以分为两类:基于灰度信息的匹配算法和基于特征的图像匹配算法5“j。基于灰度信

10、息的匹配算法通过空间二维滑动模板进行匹配,运算过程简单,匹配精度高,但是算法运算量大,对噪声比较敏感。而基于特征的图像匹配中常用的图像特征包括点特征、线特征和边缘特征,其中图像特征点的提取过程受到噪声影响较小,同时对于灰度变化、图像变形和遮挡具有较强的抗干扰能力。经典的特征检测方法,如Moravec算法。7。和Harris算法Mj,它们的特征点检测过程只是在单一的尺度上进行,容易受到噪声影响。Lowe一1提出的尺度不变特征变换(ScaleInv撕ant FeatureT姗sfonn,sIFr)算法,利用高斯函数构建尺度空间,对图像缩放、旋转、仿射变换保持不变性,但是由于采用了128维的收稿日期

11、:201706一05;修回日期:20160908。作者简介:孙增友(1963一),男,吉林吉林人,教授,主要研究方向:信号与图像处理、无线通信; 段玉帅(1991一),男,河南商丘人,硕士研究生,主要研究方向:图像处理、模式识别;李亚(1992一)女,河南郑州人,硕士研究生,主要研究方向:信号与图像处理、模式识别。万方数据3548 计算机应用 第37卷描述算子,计算量较大,不适合应用在对实时性要求较高的图像匹配中。Ke等训利用主元分析法替换sIFr算法中的直方图,从而达到对sIFr描述符进行降维的目的,但是影响其特殊性和增加描述算子形成的时间使得增加的匹配速度性能毁于一旦。Bay等1提出了加速

12、鲁棒性特征(speeded UpRobust Features,SuRF)描述符,suRF最大的特征在于采用了积分图像和哈尔特征的概念,缩短了程序的运行时间,但是因为采用64维的浮点型描述算子,要求大量的存储空间。Agmwal等。1 2+提出了中心环绕极值(center sun_ound Extrema,censurE)算法,通过设计简单的双层滤波器来近似高斯拉普拉斯,提高了计算效率,但是由于采用的线性滤波器导致滤波器响应信号稀疏,在尺度变化和几何变化时特征点稳定性差。Rublee等一划提出了快速定向旋转二进制稳健基元独立特征(Oriented f酞t and Rotated Binary R

13、obust Independent elementaryFeatures(BRIEF),ORB)算法。0RB算法是加速分割测试特征(Features from Accelerated segment Test,FAST)和二进制稳健基元独立特征(BRIEF)描述符的结合和改进,具有很高的计算效率。但是FAsT特征点不具备尺度不变性“,在图像发生尺度变化的情况下,该算法的匹配精度会受到严重的影响。基于尺度空间提取特征点的思想,本文提出一种尺度不变性的基于中心环绕滤波器检测(Scaleinvariant Centersu肿und Fj】ter Detection,scFD)的图像特征点匹配算法。该

14、算法提出的特征检测子可以有效提高计算速度和准确性,同时具备尺度不变性;其次,联合0RB构建特征点描述算子;最后通过最小平方中值(LMeds)定理和最大似然(ML)估计方法对数据进一步求精。将本文算法与0RB、sI丌、suRF等算法进行性能对比分析,实验结果表明,本文算法能够有效提高特征点的稳定性和匹配精度。1 图像特征点的检测由于图像中的特征点不易受到环境中的噪声影响,在灰度变化、图像变形和遮挡时具有较强的抗干扰能力,故基于特征的图像匹配算法得到广泛应用。而常用的特征点检测方法(如Harris、FAsT)在特征点检测过程中只是在单一的尺度上进行,特征点容易受到环境中光照强度、噪声、视角改变等的

15、影响。通过构建尺度空间模型可以将单尺度信息纳入尺度不断变化的动态分析框架中,更容易获得图像本质特征。sIFT算法,通过构建高斯金字塔并在不同的尺度上查找关键点。但是,由于对原始图像不断进行隔点采样,较高层的特征相对于原始图像的精度较低,造成在金字塔的较高层特征点不能被准确地定位。为了提高特征点的稳定性和获取特征点准确的位置信息,本文采用稳定性和计算效率更高的中心环绕双层滤波器,由于该滤波器在所有的尺度和像素上计算滤波响应,所以提取的特征点具有较高精度。因此,提出一种新的特征点检测方法。首先利用中心环绕双层滤波器近似高斯拉普拉斯算子构建尺度空间,计算原始图像中的每个像素点的中心环绕哈尔小波响应值

16、,采用积分图像加速运算过程。1“,然后利用非极大值抑制方法检测极值,最后通过Ha晡s和子像素插值获得更加稳定的特征点。11构建尺度空间在利用高斯差分函数近似代替高斯拉普拉斯函数的启发下,本文利用更为简单的中心环绕双层滤波器近似高斯拉普拉斯算子,从而达到简化计算的目的。图l显示了通用的中心环绕小波的块大小n。设双层滤波器的内核尺寸为(2n+1)(2n+1),外核尺寸为(4n+1)(4n+1),设,。是内核权重系数,0。是外核权重系数,因为要使得滤波器Dc响应为零,权重系数应满足下面的等式:O。(4,l+1)2=,。(2n+1)2 (1)对尺度空间进行归一化处理:L(2n+1)2=,。+I(2(n

17、+1)+1)。 (2)图1 中心环绕双层盒滤波器Fig 1 Centersurround bi-level boxes filter将尺度空间划分为四组,每组由四层组成。为了提高特征点的提取精度,不同于sI丌中下一组是在上一组进行降采样,而是在每一组中采用尺度递增的中心环绕滤波器和原始图像作卷积,可以获得一系列的响应图。为了进一步提高特征点的稳定性和匹配的准确性,通过行子像素插值精确定位特征点位置。在每一组中选择四层尺度图像,选择内核大小为33的滤波器作为尺度空间的初始层,通过放大滤波器的大小可以减小sIFT算法不断重复隔点采样过程带来的精度损失。为了确保滤波器的内核为奇数,并且能够检测到中心

18、像素的出现,双层滤波器内核大小逐层增加2。为了能在3D邻域内确定极值点,需要多出两层,即初始层和顶层只作为比较用而并不包含极值点。滤波器大小的构造方法是:每组滤波器大小和步长依次增加,如第一组滤波尺寸大小分别为3、5、7、9。第二组每层滤波器内核依次增加4,内核大小依次为55、99、1313、1717,第三组、第四组等以此类推。图2给出了不同组下各层中心环绕双层滤波器内核大小。组数组内层数图2双层盒滤波器内核大小Fig2 Core si趾of cente卜sun_ound bi-levelboxes filter in di艉rent gmups12非极大值抑制极值检测计算不同尺度的滤波器在图

19、像中每个像素上的响应值,滤波器响应的幅度给出了特征强度的指示,响应越强,特征点重复性越好。通过设置阈值滤除能量较弱以及错误定位的特征点,然后采用非极大值抑制检测尺度空间的极值点作为候选的特征点,将经过中心环绕双层滤波器处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位特征点。万方数据第12期 孙增友等:基于中心环绕滤波器检测的图像特征点匹配算法 354913消除边缘响应在边缘或者线段上容易产生不稳定的特征点,根据极值在横跨边缘的地方有较大的主曲率,而在垂直边缘的方向有较小的主曲率的特点,采用尺度自适应的H删s方法计算主曲率,剔除不稳定点的特征点。获取特征点滤波器响应函数

20、的二阶距矩阵日,主曲率比通过日的迹与行列式比值计算得到,如式(3)所示:日:,2 ,1 (3)【, ,2 J其中:,和,为滤波器响应函数在茗和y方向上的偏导;主曲率值比阈值设为109j。14子像素插值离散空间的极值点并不是真正的极值点,为了获得精确的极值点位置,采用基于向量的正交性观测来实现亚像素角点定位【1 5。采用子像素插值可以有效提高特征点的稳定性,获得更高的重复率。检测原理如图3所示。邻域 V,(P:pg 边上的梯度 V,(P)、覃 (a)p不处于边沿 (b)p处于边沿图3 亚像素角点检测原理图Fig3 Principle diag眦Il of subpixel comer detec

21、tion设p为像素级角点,窖为角点的真实位置。D印i表示在口的一个邻域点p;处的图像梯度,该梯度向量与p,和口组成的向量正交,占表示两者正交程度。两者正交的程度误差占;=D印7(口一p)。获取角点的亚像素位置等价于求以下函数的最小值:,(口)=s。2=Dfp1(qp。)2 (4)通过对,求偏导可得系统方程如下:(叻。帅。7)g一(脚D咖。7p。)=o(5)令口=吼吼7,D印。=。既,p=z),i7,则:fgq2 g。叫“g 2【ig, g,。z J噬,l髦,驯 【既。毋。置 毋2 y。J亚像素角点定位算法具体步骤如下:步骤l 初始角点位置和窗口大小,计算窗口邻域内所有点在图像坐标系下的灰度信息

22、以及位置信息。步骤2 利用邻域点在图像中的位置信息计算邻域点的梯度信息。步骤3 根据邻域点的位置和梯度信息通过上面的推导式(6)计算特征点的准确位置g。步骤4 设定阈值D,通过式(6)计算出第i次检测到的特征点位置矿,并以此为中心计算相邻i+1次检测到的特征点位置误差,当两次计算得到的特征点误差满足I矿一口t“lD,或者迭代次数少于一定次数时终止迭代过程。否则,返回步骤1。经过实验,本文得出设置迭代次数为4,阈值D为003 pixel。2特征点描述符21计算特征点主方向为了确保特征矢量具有旋转不变性,需要为每个特征点分配一个主方向。利用灰度质心法1 3确定所有特征点的主方向。以特征点为中心、半

23、径为r做圆,计算圆形邻域范围内的灰度质心位置。把中心位置和质心位置之间的偏移向量定义为该特征点的主方向。定义矩的计算公式如下:m。=,y9如,y);x,y一r,r (7)质心位置为:C=(mIom00,molm) (8)主方向为:p=arctan(molmlo) (9)22特征点描述符生成sIFT和suRF算法由于采用了维数较多的浮点型数据格式的描述符,不但降低了匹配效率,同时也使得内存开销增大。因此,本文联合0RB描述算子,在BRIEF的基础上加上旋转不变性,作为特征描述方法。构造特征点描述符的具体步骤如下:步骤1 对图像进行高斯滤波(方差为2,窗口大小为99)。以特征点为中心,选取大小为6

24、6的邻域窗口。在邻域窗口内随机选取两个点,通过比较像素点大小并进行二进制赋值,如下:r埘k矗黑裟; ,其中:p(石)、p(),)分别是随机选取的点z=(u。,”)、y=(“:,”:)的像素值。步骤2 在邻域窗口中随机选取n对随机点,重复步骤1的二进制赋值操作,形成二进制串编码,也就是特征描述子。工(p)=21_r(p;墨,。) (11)步骤3 确定特征点的主方向。由特征点周围的2n个点(气,),i),i=l,2,2n组成一个矩阵S:s:r屯托“1 (12)L),1 ),2 扎。J采用邻域方向p和对应的旋转矩阵足。,构建S的校正矩阵s口:S日=R9ls。其中:耻【!=期 ,式中p为所要求取的特征

25、点主方向。步骤4解决描述子的区分性。为了减少Steer;ed B砌EF方差的亏损,并减少二进制码串之间的相关性,使用了一种学习的方法来选择一个较小的点对集合。方法如下:1)建立一个约3105的关键点测试集,关键点数据取自PAscA也006集中的图像。万方数据3550 计算机应用 第37卷2)对于测试集中关键点的每一个特征点,在它的周围3l31的邻域内寻找一些点。选择55大小的区域的平均灰度替代原来的单点灰度。3l3l的矩阵中共有、,=(315+1)(3l一5+1)个子窗口。在、r个子窗口中选择2个子窗口,总共有c:种方法。所以,对于测试集中的每一个特征点,都可以在它的邻域内获得长度为肘=c;的

26、二进制串,表示为:6f万A,w=pl,p2,JDM;p0,l (14)对3105个关键点提取结束后,得到一个3105M矩阵。计算该矩阵的每个列向量的均值,并按列向量的均值重新排序,形成向量Q。3)进行贪婪搜索。把向量Q中排在第一的测试集中的列向量放到矢量足中,并从测试集中移除该列向量;然后把Q中依次排序的测试与尺中测试求相关,超过设定阈值则丢弃,反之放到足中;重复前面的步骤直到胄中有256个测试,否则升高阈值,重新测试一次。3 匹配算法31特征点匹配由于生成的特征点描述子是一个256 b的二进制编码。计算两个特征点的最近距离和次近距离,设定阈值,本文取08,采用汉明距离进行判决。利用第2章求得

27、的描述子,任取置、墨两个描述子:严2工lx5 (15)L疋2 y0),l,255对汉明距离进行异或处理得到特征描述子的相似程度D(X,K):D(眉,K)=255石。o yf=0(16)当两个描述子相似度大于阈值时,即大于80时,判定是相同的特征点,这两个特征点匹配成功。32误匹配点剔除图像采集过程中容易受到光照和噪声等的影响,从而造成匹配错误。为了进一步提高特征点匹配的精确度,首先采用最小平方中值定理(Least Median squares theorem,LMeds)方法钊预先剔除误匹配,然后使用最大似然估计(MaximumLikelih00d,ML)可以得到较好的匹配结果。文献17利用随

28、机抽取一致性(RANdom sAmple consensus,RANsAc)算法剔除图像中的误匹配点,理论上RANsAc算法可以剔除外点的影响,进而得到全局最优的参数估计。但是,RANsAc算法需要在每次迭代过程中都要分内点和外点,需要预先设定阈值;其次,RANsAc的迭代次数由运行周期决定,无法预知迭代的次数。LMedS克服了RANSAC的两个缺点。LMedS从所有记录的样本中抽出、r个样本子集,使用最小二乘法对每个子集计算模型参数和该模型偏差,LMedS中不需要预先设定阈值来区分内点和外点。选取,v个样本子集中偏差最小的所对应的模型参数作为最终的模型参数估计。LMeds方法可以有效地剔除错

29、误数据并估计误差协方差。最后采用最大似然估计方法对数据进行进一步求精。最大似然估计通过给定的观察数据来评估样本集中相关概率密度函数的参数,对于匹配点具有较好的稳定性,在匹配点中可以获得理想的估计结果。本文提出的匹配算法SCFD的流程如图4所示。参考图像 目标图像构建尺度空间l l构建尺度空间子像素插值l I子像素插值提取图像特征点I l提取图像特征点计算特征点主方向I l计算特征点主方向生成描述算子| l生成描述算子特征点匹配二二】二剔除错误匹配完成匹配图4 SCFD算法流程Fig4 now chart of SCFD algorithm4实验结果分析本文实验平台采用Intel Core i5

30、 2450M、CPU25 GHz、内存40 GB的计算机,操作系统为windows 7,开发环境为Micmsoft Visual Studio 20 l 2。41 特征检测重复率实验重复率作为特征检测性能的评价标准方法,可以用来评价特征点的稳定性,重复率越高说明提取的特征点越稳定“。本文使用Mikolajczyk提供的标准图像库(hIlp:wwwmbotsoxacuk一vgresearchamne)中给定的图像数据集,计算不同变化下各个算法的重复率。重复率的定义如下: 删捌my=纛嚣燃(17)在图像视角和尺度变化下对本文算法和FAST、suRF、SIFr和进行了实验测评。图5为视角和尺度发生变

31、化时四种算法的重复率。从图5(a)可以看出在视角变化的情况下,本文提出的中心环绕滤波检测特征的重复率要高于SuRF和sI F1。图5(b)表明在尺度发生变化时,本文算法的特征重复率优于sURF和FAST,同时克服了FAST不具有尺度不变性的缺陷。本文算法对于较大的缩放中心环绕滤波检测特征重复率比SIFT稍微要差,这主要归因于中心环绕滤波器覆盖的尺度比SI丌要少,因此对于大规模变化尺度不变性较SI几略差。42算法性能实验分析为了对本文提出的scFD算法作出全面的评估,针对同一场景在尺度、旋转和光照发生变化的情况下,将所提算法与0RB、sIFTr、suRF算法作对比实验。421尺度性能分析采集室外

32、环境下一张图片并对其进行尺度变化,用来验证本文提出的scFD图像特征匹配算法是否具备尺度不变性。图像匹配结果如图6所示。从图6(a)可以看出,当图像发生缩放时,采用0RB算法可以提取出更多的特征点,主要归因于0RB采用的FAsT角点检测,但是由于算法本身不具备尺度不变性,所以可以明显看出特征点匹配线段较为杂乱,尤其是图像中松树的树枝部分出现很多错误匹配。图6(b)、图6(c)和图6(d)分别为SI丌、SURF和本文提出的算法的匹配结果,从图中可以看出均无明显的匹配错误。图6(d)为本文算法在尺度变化下的匹配结果,由于LMeds和最大似然估计方法剔除一部分误匹配点,使得匹配点减少,但是仍然保持大

33、量的正确匹配对,满足匹配要求。万方数据第12期 孙增友等:基于中心环绕滤波器检测的图像特征点匹配算法 3551零爵删恻(a)视角变化 (b)尺度变化图5视角和尺度变化下的重复率曲线Fig 5 Repeatability curve under chaJlge of aIlde of view and sc ale(c)suRF (d)本文算法图6 尺度变化时不同算法图像匹配结果对比Fig6 Comparison of image matching results for di丘b他nt a190rith瑚under丑le change为了进一步验证四种算法在尺度变化时的匹配性能,统计实验中的四

34、组数据,如表l所示。由表l可以看出,在尺度发生变化的情况下,本文算法匹配精度为966,比0RB提高了498个百分点,该算法在匹配性能方面的性能表现表明该算法具备尺度不变性;同时,本文算法的匹配精度比sIFr和suRF分别提高了13个百分点和5个百分点,这主要得益于本文提出的提纯算法能够有效剔除图像中的不稳定的特征点,提高了匹配性能。裹l 尺度变化时不同算法图像匹配性能对比仙 1 Compdn of image matching pe舶m明ce ford诳eIent a190rit|lms under scale chaIlge算法署曩焉曩荔 算法导曩慧苏本文算法147 141 966 SIFT

35、 253 24l 9530RB 412 193 468 SURF 19l 175 916422旋转性能分析图7给出了在旋转变化条件下的不同算法的图像匹配对比结果。从图7(a)可以看出0RB算法具有一定的旋转不变性,但是在图像左上角的松树的松叶和走廊的轮廓部分会出现杂乱的特征点匹配线;图7(c)为suRF算法在旋转变化下的匹配结果,可以看出在图像的中间部分和地面部分存在明显的错误匹配;图7(c)和图7(d)分别为sI丌算法和本文所提算法在旋转变化下的匹配结果,从图中可以看出这两种算法的特征点匹配线段均比较平整,具有较好的匹配效果。表2给出了在旋转变化条件下统计的不同算法的匹配数据。由表2可知,本

36、文所提算法匹配精度达到了约980,比ORB算法提高了109个百分点,较suRF提高了36个百分点。实验结果表明本文算法在旋转性能上表现出良好的匹配性能。表2旋转变化时不同算法图像匹配性能对比Tab2 Comp吐son of image malchi“g perf0珊a11ce fordifrerent aJgorithms under rotation change算法筹蠹焉曩苏 算法嚣曩慧苏本文算法 202 198 98O SIFT 339 33l 976ORB 350 305 871 SURF 414 39l 944423光照性能分析采用Mikolajczyk提供的标准图像库中的一组图像集

37、leuven进行测试,图像大小为900600,图像集中有6幅图片,图片亮度随着图像序号增加逐渐变暗。图8显示了不同程度光照条件下四种算法的特征点匹配精度。由图8可以看出,在亮度发生变化的条件下,本文提出的scFD算法的匹配精度要高于0RB、sIFr和suRF算法,在光照发生较大变化的情况下仍能取得较好的匹配效果,表明该万方数据3552 计算机应用 第37卷算法具有良好的匹配精度和稳定性。这主要得益于该算法采用亚像素插值的方法确定特征点的准确位置,进一步增强了特征点的鲁棒性,同时采用的最小平方中值定理结合最大似然估计算法和仅采用汉明码匹配相比,可以有效地剔除外点,提高特征点匹配的准确性。(d)本

38、文算法图7 旋转变化时不同算法图像匹配结果对比Fig 7 Comparison of image matching results fordi雎rent aIgothms under mtati叩ch帅gel)090母80魁蜒7rl耐圜6()S0402 1 6图像序号图8亮度变化时不同算法图像匹配结果对比Fig 8 Comp“son of image matching results fordifkrent algorithms under brightness v撕ation43误匹配点剔除算法性能分析为了验证本文提出的误匹配点剔除算法的性能,采用Mikolajczyk提供的标准图像库中的图

39、集,在尺度变化、旋转变化和亮度变化下的条件下,利用该算法对sIFr、suRF和0RB进行提纯操作并统计其匹配精度数据,结果如表3所示。从表3中的实验结果可以看出,本文提出的误匹配点剔除算法可以有效地对特征点数据进行提纯,提高了算法的匹配精度。表3 误匹配点剔除时不同算法匹配精度对比 Tab3 Comp“son of matching accuracy for di任brentalgorithms under culli“g柚鸵眦tching points 44算法运行时间分析为了验证本文所提算法scFD对实时性的影响,统计在尺度变化、旋转变化和亮度变化下不种算法的运行时间。总的耗时分为特征点检

40、测描述和匹配两部分,统计结果如表4所示。衰4不同算法不同条件下运行时间对比 rnsTab4 C伽parison of mnning time for dib弛nt a190ritIlmsunder di毫l七nt conditions ms由表4可知,本文算法的平均耗时为706舳,是sIFfr算法的198、suRF算法的283,0RB平均耗时最少为217 ms。从表4可以看出,本文算法耗时较sIFTr和SuRF少这主要归因于中心环绕滤波器检测的效率较高;另一方面由于采用了具有方向的二进制鲁棒性独立基本特征作为特征描述符,使算法实时性得到提高。同时因为:1)特征点检测提取过程在构建的多尺度空间上

41、进行;2)匹配过程中增加了误匹配点剔除过程,本文算法耗时比0RB要多。从上述实验可以得出,本文算法在尺度变化、旋转变化和亮度变化下具备良好的匹配效果,满足实时性需求。5 结语针对传统图像匹配算法特征点检测稳定性和准确性差的问题,本文提出了一种新的基于中心环绕滤波器检测的图像特征点匹配算法,通过构建多尺度空间,利用中心环绕双层滤波器检测图像在不同尺度下的特征点,使得特征点具备尺度不变性,并通过子像素插值获得更加稳定的特征点,然后联合0RB算法确定特征点主方向并构建特征点描述符,最后采用LMeds和最大似然估计剔除误匹配点。通过实验验证,本文所提算法在尺度、旋转、亮度等变化的情况下均取得理想的匹配

42、效果,具有较高的稳定性和匹配精度。该算法在很大程度上提高了实时性,但其计算速度比0RB要慢,下一步的工作重点是进一步提高特征点匹配速度。参考文献(References)1】 sINHA S N,FRAHM J M,POULEFEYs MFbature tmcking andmatching in Video using pmF啪mable gmphics hardware【J】 Machine Visiond Applications,20ll,22(1):207217【2】 ZHOu w,U H,HONG R,et a1BSIFT:towards dat8indeDend万方数据第12期 孙

43、增友等:基于中心环绕滤波器检测的图像特征点匹配算法 3553(上接第3535页)【19】 u z QCHEN J ssuperp训segrnenon using linear spectralclusteri“g【c】Proceedi“gs of the 201 5 IEEE Conference onComputer Vision and Pattern RecognitionW脑hington,DC:IEEEComputer Society,2015:1356一1363【20】 ACHANTA R,SHAJI A,SMITH K,et aJSUC superpixels compared

44、lo stateoftIean s“Perpixel methods【J】IEEE TrarIsactions on Pattem Analysis and Machine Intelligence, 2012, 34(11):22742282【21】LONG j,SHELHAMER E,DARRELL TFuUy conv01utional networks for semantic segmentation【C】Proceedings of the 2015IEEE Conference on Computer Vision and Pattem RecognitionWashington

45、,DC:IEEE CompuIer Society,2015:34313440【22】 HARIHARAN B,ARBELAEz P,GIRSHICK R,et a1Hypercol-umns for object segmentation and finegmined 10cali豫tion【c】Proceedi“gs of tle 2015 IEEE Computer Conference on Vision arIdPattem RecogrIition Washing【on, DC: IEEE Computer S0ciety,2015:447456【23】 ZHENG S,JAYAS

46、UMANA S,ROMERA-PAREDES B,et a1Conditional r帅dom nelds as recurrent眦删networks【CProceedi“铲of tlle 2015 IEEE Computer Conference on Computer Vision蛐dPattem Reco盱i【ion Washin910n, DC: IEEE Computer Society,2015:1529一1537【24】 EVERINGHAM M,wlLLIAMS CThe PAscAL Visual 0bjectClasses chlllenge 2叭0(VOC2010)pa

47、rt lchalle“geclassmcation Iask【C】Pmceedi“gs of lhe 201 O Inlemational Collfbrenceon Machine Lanling Cha儿e“ges: EvaluaIing Predictive UncertaintyVisual 0bject ClassincaIionBerIin:Springer,20lO:117一176111is work is p叭iaIly supported by the National NaIu脚Science Founda“on of China(6147131 1)CHENG ShuU,

48、bom in 1990,MScandidateHis research inte卜ests include image processingwANG Liej岫,bom in 1975,PhD,pmfessorHis research in-teresls include image pmcessi“昏 wireless sensor networkQDq Jiwei,bom in 1978,PhD,lecturerHer research interestsincIude data mininzDU Anyu,bom in 1993,MScandidateHer research interestsinclude wireless sensor network万方数据

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 研究报告 > 论证报告

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁