《采用结合梯度的互信息测度方法较好-Read优秀PPT.ppt》由会员分享,可在线阅读,更多相关《采用结合梯度的互信息测度方法较好-Read优秀PPT.ppt(48页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、基于互信息的医学图像配准许向阳华中科技高校医学图像信息探讨中心探讨内容 互信息的概念 互信息的改进 搜寻策略的优化1.互信息的概念互信息是信息理论中的一个基本概念。1948年C.E.Shannon提出,A mathematical theory of communication,Bell System Technical Journal,vol.27,pp.379423/623656,1948.1995年Colligon和Viola首次用于医学图像配准。互信息用于描述两个系统间的统计相关性,或者一个系统中包含的另一个系统的信息的多少。对于来自同一对象的两幅图像,配准后,互信息应为最大。互信息只
2、是一种相像性测度基于互信息的配准方法仍旧遵循一般的配准框架 Collignon A,et al,Automated multi-modality registration based on information theory,Information Processing in Medical Imaging,1995,263-274Viola P,Wells WM,Alignment by Maximization of mutual information,International Conference on computer Vision,1995,Los Alamitos,CA:IE
3、EE Computer Science Press,1995,1623.1.互信息的概念熵 熵(entropy)是信息的测度。熵的概念来源于通讯理论。Pi=灰度值为i的像素点数/总像素点数 1.互信息的概念熵可以有三种说明:当一个事务发生时,其给出的信息数量;一个事务的结果的不确定性;事务发生的概率分布。Question:熵大,说明什么问题?熵小,又说明什么?1.互信息的概念熵 Jumarie entropy 不适于多模态图像配准 Renyi entropy 在图像配准中很少运用1.互信息的概念联合熵 联合熵H(A,B)是随机变量A和B相关性的统计量。PAB(a,b)是联合概率分布函数。联合熵
4、越小,说明什么问题?1.互信息的概念Joint grey value histograms of an MR image with itself.The leftmost histogram shows the situation when the images are registered.Because the images are identical,all grey value correspondences lie on the diagonal.The three following are the resulting histograms when one MR image is
5、 rotated with respect to the other by angles of 2,5 and 10 degrees respectively.Below the histograms are the corresponding joint entropy values.1.互信息的概念 条件熵 1993年,Woods应用条件熵作为配准的测度,开发了PET-MT图像配准的软件AIR.1.互信息的概念互信息第(1)种定义形式能够最好的说明“互信息”。将熵作为不确定性度量的概念时,式(1)说明为“B的不确定性减去当A已知时B的不确定性”。换句话说,互信息是当A给出时,B的不确定性的
6、削减程度。若A能完全表达B,则互信息最大,即不确定性削减程度最大。(1)1.互信息的概念互信息(2)第(2)种定义形式最接近联合熵。式中的A、B不是指两幅完整的图像,而是分别代表两幅图像的重叠区域。互信息和联合熵都是在图像的重叠区域上计算的,因此,度量值取决于重叠区域的大小和重叠区的内容。1.互信息的概念式(2)含有项H(A,B),表示最大互信息与最小联合熵有关。联合熵表明白两幅图的灰度值分布。在通常状况下,联合熵小,表明对齐的程度高。但是,接受两幅图像重叠区域的联合熵可能会出现两幅图像完全误配时,联合熵最小的状况。如一幅图像例的一部分背景区域和另一幅图像的一部分背景区域重叠,其它部分不重叠时
7、,联合熵最小。接受互信息可以避开这种状况,因为对只有部分背景对齐的状况,H(A)和H(B)很小,因而互信息很小。随着A、B重叠区域的增大,A、B中包含更多的信息,使得H(A)、H(B)增大。尽管联合熵也增大,但是互信息在增加,更好的反映了对齐的程度。互信息 VS 联合熵1.互信息的概念互信息(3)第(3)种形式与Kullback-Leibler距离有关。测量了两幅图像灰度值的联合分布p(a,b)和在两幅图像相互独立的状况下的联合分布p(a)p(b)之间的距离。是两幅图像的依靠性的度量。其假设就是,在两幅图像正确对齐的状况下,它们的灰度值之间的依靠最大。误配会导致度量值降低。1.互信息的概念圆代
8、表了图像的边缘熵两圆合并区域为联合熵重叠部分为互信息1.互信息的概念互信息的优点分割和特征提取方法中存在的问题在图像的获得和特征提取过程中会产生不同程度的噪声,使得提取到的特征点位置存在确定的误差,要使一幅图像中的特征点精确匹配另一幅图像中的特征点是很困难的;从两幅图像中提取到的图像特征点集数目是不等的,确定它们之间的对应关系较难;一幅图像中的某些特征点在另一幅图像中没有相对应的特征点,即存在着出界点;特征点集之间的变换可能是刚性的,也可能是非刚性的。互信息的性质非负性:I(A,B)=0。B的不确定性不会因为对A的了解而增大。独立性:当PAB(a,b)=PA(a)PB(b)时,I(A,B)=0。若A和B是独立的,则不能从一幅图像中获得任何关于另一幅图像的信息。对称性:I(A,B)=I(B,A)自信息:I(A,A)=H(A)有界性:I(A,B)=min(H(A),H(B)I(A,B)=min(H(A),H(B)=(H(A)+H(B)/2 =max(H(A),H(B)=H(A,B)f(t2)F(t3)f(t2)用(t1,f(t1),(t2,f(t2),(t3,f(t3)插值微小点:t4.再由t1,t2,t4插值。选点原则:两头高,中间低Brent算法3.2 一维搜寻方法Brent算法3.2 一维搜寻方法