数字图像处理与图像通信 第9章 图像的统计特性与压缩编码.ppt

上传人:s****8 文档编号:69554494 上传时间:2023-01-06 格式:PPT 页数:84 大小:749.50KB
返回 下载 相关 举报
数字图像处理与图像通信 第9章 图像的统计特性与压缩编码.ppt_第1页
第1页 / 共84页
数字图像处理与图像通信 第9章 图像的统计特性与压缩编码.ppt_第2页
第2页 / 共84页
点击查看更多>>
资源描述

《数字图像处理与图像通信 第9章 图像的统计特性与压缩编码.ppt》由会员分享,可在线阅读,更多相关《数字图像处理与图像通信 第9章 图像的统计特性与压缩编码.ppt(84页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、数字图像处理与图像通信数字图像处理与图像通信朱秀昌朱秀昌 1v9.1 9.1 图像的统计特性图像的统计特性v9.2 9.2 压缩编码原理压缩编码原理v9.3 9.3 预测编码和变换编码预测编码和变换编码v9.4 9.4 量化量化第第9 9章章 图像的统计特性与压缩编码图像的统计特性与压缩编码2 图像的统计特性定义图像的统计特性定义 图像的统计特性是指图像信号(亮度、色度或其抽样值等)本身,图像的统计特性是指图像信号(亮度、色度或其抽样值等)本身,或对它们进行某种方式的处理以后的输出值的随机统计特性。或对它们进行某种方式的处理以后的输出值的随机统计特性。图像的统计特性图像的统计特性时间域统计特性

2、时间域统计特性变换域统计特性变换域统计特性9.1 9.1 图像的统计特性图像的统计特性3v 9.1.1 9.1.1 图像的信息熵图像的信息熵几个基本概念:几个基本概念:自信息量:自信息量:设信源设信源X X可发出的消息符号集合为可发出的消息符号集合为 ,设设X X发出发出 的概率为的概率为,则符号,则符号 出现的自信息量定义为:出现的自信息量定义为:4一阶熵一阶熵(熵)(熵):(bit/(bit/符号符号)无无记忆记忆信源:信源:各个符号各个符号的出的出现现是独立的。是独立的。有记忆信源:有记忆信源:一个符号出现的概率与其它符号出现的概率相关。一个符号出现的概率与其它符号出现的概率相关。N阶阶

3、Markov过程:过程:信源发出一个符号的概率只和它前面相继发出的信源发出一个符号的概率只和它前面相继发出的N个符号相关,个符号相关,而与再前面的第而与再前面的第N+1,N+2等符号独立无关。等符号独立无关。平均信息量:平均信息量:对信源对信源X的各符号自信息量取统计平均。的各符号自信息量取统计平均。5由上述概念,引出由上述概念,引出图像信息熵图像信息熵:图像信息熵的单位:图像信息熵的单位:当当Pi表示表示m 种图像中的某一图像出现的概率时,种图像中的某一图像出现的概率时,H(X)单位是单位是 bit/每幅图像每幅图像。当当Pi为各抽样值出现的概率,为各抽样值出现的概率,H(X)单位为单位为

4、bit/像素像素。61.1.当当 Pi表示表示m 种图像中的某一图像出现的概率,种图像中的某一图像出现的概率,H(X)单位是单位是bit/每幅图像。每幅图像。图像熵公式表明:图像熵公式表明:当以图像为基本符号单位时,意味着每幅图像的内容当以图像为基本符号单位时,意味着每幅图像的内容“本身本身”对信对信息的接收者而言是确定的。息的接收者而言是确定的。所需消除的不确定性只是当前显示的图像是图像集中的哪一幅。所需消除的不确定性只是当前显示的图像是图像集中的哪一幅。举例:举例:从一幅扑克牌中抽出一张纸牌,每一张牌的图案是确定的,从一幅扑克牌中抽出一张纸牌,每一张牌的图案是确定的,这时,要消除的不确定性

5、只是牌的面值。这时,要消除的不确定性只是牌的面值。72.当当Pi为各抽样值出现的概率,为各抽样值出现的概率,H(X)单位为单位为bit/像素像素 图像熵是图像压缩编码中的一个重要指标,图像熵是图像压缩编码中的一个重要指标,表示把图像信源作为无记忆时所需的数码率下界。表示把图像信源作为无记忆时所需的数码率下界。具有实际通信意义的图像(而不是具有实际通信意义的图像(而不是“雪花状雪花状”噪声组成的图像),噪声组成的图像),其相邻的像素之间总有一定的联系,其相邻的像素之间总有一定的联系,或者说,图像信息源是一种或者说,图像信息源是一种“有记忆有记忆”的信源。的信源。对于这样的信源,就对于这样的信源,

6、就不能不能把一阶熵作为编码的数码率下界。把一阶熵作为编码的数码率下界。8此时考虑方法如下:当此时考虑方法如下:当N个符号有关联性时,则把这个符号有关联性时,则把这N个符号个符号序列序列当作一个新符号当作一个新符号 。此时:。此时:单位:单位:bit/bit/新符号新符号 其中,其中,m是不同的是不同的N个符合的序列的总个符合的序列的总数,即新符合总数。数,即新符合总数。当用当用N 除除上述熵上述熵值时,即值时,即 它可以作为每个符号的平均熵值,它可以作为每个符号的平均熵值,单位单位 bit/bit/符号符号 或或 bit/bit/像像素素。9l数学期望数学期望(均值均值)l归一化自相关系数归一

7、化自相关系数v 9.1.2 9.1.2 图像自相关函数图像自相关函数NN 的图像两点的图像两点 和和10l亮度平均值亮度平均值ml图像方差图像方差D(X)l标准差标准差=均方差均方差=l均方值均方值=特别,当两个像素在同一行时,即特别,当两个像素在同一行时,即 ,则一维自相关系数可表示为:则一维自相关系数可表示为:11n一维自相关系数分布曲线一维自相关系数分布曲线5 10 15 20 255 10 15 20 25 1.01.00.80.80.60.60.40.40.20.20.00.0 图图 9.1 9.1 一维自相关系数分布曲线一维自相关系数分布曲线图像一维自相关系数可用如下数学模型近似表

8、示:图像一维自相关系数可用如下数学模型近似表示:w取值在取值在0.90.90.980.98w 二维自相关模型及意义与一维类似。二维自相关模型及意义与一维类似。12 v 9.1.3 9.1.3 图像差值信号的统计特性图像差值信号的统计特性 1.1.帧内统计特性帧内统计特性:对一幅(帧)图像内部像素进行的统计特性分析。对一幅(帧)图像内部像素进行的统计特性分析。2.2.帧间统计特性:帧间统计特性:对帧间对应位置上像素进行的统计分析。对帧间对应位置上像素进行的统计分析。13 ,求同一列求同一列1.1.帧内统计特性:帧内统计特性:相相邻邻像素的差像素的差值值指同一行相指同一行相邻邻两像素两像素和和相相

9、邻邻两像素两像素和和的差的差值值:水平方向水平方向(同一行同一行)垂直方向垂直方向(同一列同一列)w 由统计,可得这些差值分布集中在零附近。由统计,可得这些差值分布集中在零附近。w 原因:相邻像素有较强的相关性。原因:相邻像素有较强的相关性。142.2.帧间统计特性帧间统计特性 帧间差定义:帧间差定义:k帧帧t(i,j)(i,j)k-1帧帧图图 9.49.4帧间差位置示意帧间差位置示意 帧帧 差差 域域 值值 1 1 2 2 3 3 5 5 7 7 1010 占占该帧该帧像素像素(%(%)61.661.6 41.741.7 27.927.9 12.012.0 4.44.4 0.830.83 表

10、表9.19.1 帧间差值超过指定阈值的像素占图像像素总数的百分比帧间差值超过指定阈值的像素占图像像素总数的百分比 w 由统计,可得帧间差变化也很小。由统计,可得帧间差变化也很小。w 原因:相邻帧图像有较强的相关性。原因:相邻帧图像有较强的相关性。15v 9.1.4 9.1.4 频率域上的统计特性频率域上的统计特性 由图由图9.59.5可得结论:电视信号的绝大部分能量集中于直流和低频部分。可得结论:电视信号的绝大部分能量集中于直流和低频部分。进进而推断出:对大多数图像,其能量主要成分集中在频率域的低频部分。而推断出:对大多数图像,其能量主要成分集中在频率域的低频部分。0.01 0.1 1 10

11、0.01 0.1 1 10 频率(频率(MHzMHz)0 0-10-10-20-20-30-30-40-40-50-50-60-60相对功率相对功率 (dB)图图 9.59.5电视信号的一维频谱特性电视信号的一维频谱特性169.2 9.2 压缩编码原理压缩编码原理 v 9.2.1 9.2.1 无失真编码无失真编码1 1)基本概念:)基本概念:唯一可译编码(单义可译编码)唯一可译编码(单义可译编码)非续长代码非续长代码 一般情况下,码可分为两类:一般情况下,码可分为两类:定长码定长码,码中所有码字长度相同,如表,码中所有码字长度相同,如表1中的码中的码1。变长码,变长码,码中的码字长短不一,如表

12、码中的码字长短不一,如表1中的码中的码2。信源符号信源符号Si出出现现概率概率p(Si)码码1码码2S1P(S1)000S2P(S2)0101S3P(S3)10001S4P(S4)11111表表1 1 定长码和变长码定长码和变长码17符号符号概率概率码码1码码2码码3码码4S11/20011S21/411101001S31/80000100001S41/8110110000001表表2 2 奇异码和非奇异码奇异码和非奇异码 18 奇异码和非奇异码:奇异码和非奇异码:p 若信源符号与码字一一对应,则为非奇异码,若信源符号与码字一一对应,则为非奇异码,如表如表2 2中的码中的码2 2;p 若信源符

13、号与码字不是一一对应,则为奇异码若信源符号与码字不是一一对应,则为奇异码,如表,如表2 2中的码中的码1 1。唯一可译码:只能唯一的分割成一个个码字,其他分割法会产生一唯一可译码:只能唯一的分割成一个个码字,其他分割法会产生一 些非定义码字。些非定义码字。如如00,1010,1111是唯一可译码,对于是唯一可译码,对于100111000100111000,只能,只能分割分割为为1010,0 0,1111,1010,0 0,0 0。奇异码不是唯一可译码,而非奇异码有非唯奇异码不是唯一可译码,而非奇异码有非唯一可译码和唯一可译码。一可译码和唯一可译码。19 唯一可译码分为:唯一可译码分为:非即时码

14、和即时码非即时码和即时码。如果收端收到一个完整的码字后,不能立即译码,还需等下一个如果收端收到一个完整的码字后,不能立即译码,还需等下一个码字开始接收才能判断是否译码,称为非即时码(码码字开始接收才能判断是否译码,称为非即时码(码3 3),否则为即),否则为即时码(也称为非续长码)。如码时码(也称为非续长码)。如码4 4。单义码不一定是非续长代码,如单义码不一定是非续长代码,如00,0101,011011,111111 注意:注意:非续长代码一定是单义码;非续长代码一定是单义码;202 2)huffmanhuffman编码编码 等长编码(均匀编码):等长编码(均匀编码):每个值以相同长度的二进

15、制码表示。每个值以相同长度的二进制码表示。变长编码:变长编码:概率高的符号分配较短码字,概率低的符号分配较长的码字。概率高的符号分配较短码字,概率低的符号分配较长的码字。变长编码变长编码信息保持型编码(熵编码),信息保持型编码(熵编码),编解码过程中并不引入信息量的损失。编解码过程中并不引入信息量的损失。注:注:huffmanhuffman编码编码结果不唯一,但平均字长一样。结果不唯一,但平均字长一样。21n哈夫曼编码结果:哈夫曼编码结果:非续长;非续长;唯一可译;唯一可译;0 0,1 1任意赋;任意赋;结果不唯一;结果不唯一;平均码长一样;平均码长一样;码长方差(码长变化幅度)不同,其值越小

16、越好。码长方差(码长变化幅度)不同,其值越小越好。22 (其中码长方差其中码长方差Var=)为保证码长的方差小,在遇到概率相等时,把后面求和得到的概为保证码长的方差小,在遇到概率相等时,把后面求和得到的概率放在概率相等的消息之前(或之上)。率放在概率相等的消息之前(或之上)。233)算术编码算术编码引入算术编码原因:引入算术编码原因:p 理论上:哈夫曼方法对信源数据编码可以获得最佳编码效果。理论上:哈夫曼方法对信源数据编码可以获得最佳编码效果。p 实际上:由于在计算机中存储和处理的最小数据单位是实际上:由于在计算机中存储和处理的最小数据单位是“比特比特”,因此在某种情况下,实际压缩编码效果往往

17、达不到理论压缩比。因此在某种情况下,实际压缩编码效果往往达不到理论压缩比。如信源符号如信源符号x,y,其对应概率为其对应概率为2/3,1/3,则根据理论计算,则根据理论计算,符号符号x、y的最佳码长分别为:的最佳码长分别为:x:-log2(2/3)比特比特=0.588 比特比特y:-log2(1/3)比特比特=1.58 比特比特 24这表明:这表明:要获得最佳效果,符号要获得最佳效果,符号x,y的码字长度应分别为的码字长度应分别为0.588、1.58位。位。计算机不可能有非整数位出现,只能按整数位进行,即采用哈夫曼方法计算机不可能有非整数位出现,只能按整数位进行,即采用哈夫曼方法对对x,y编码

18、,得到编码,得到x,y的码字分别为的码字分别为0和和1,也就是两个符号信息的编,也就是两个符号信息的编码长度都为码长度都为1。可见,对于出现概率大的符号可见,对于出现概率大的符号x并未能赋予较短的码字。这就是实际的并未能赋予较短的码字。这就是实际的编码效果往往不能达到理论编码的原因之一。编码效果往往不能达到理论编码的原因之一。为了解决计算机中必须以整数位进行编码的问题,人们提出了算术编为了解决计算机中必须以整数位进行编码的问题,人们提出了算术编码方法。码方法。25算术编码的特点算术编码的特点算术编码是信息保持型编码;算术编码是信息保持型编码;无需为一个符号设定一个码字;无需为一个符号设定一个码

19、字;算术编码有固定方式的编码,也有自适应方式的编码;算术编码有固定方式的编码,也有自适应方式的编码;在信源符号概率比较接近时,算术编码比哈夫曼编码效率要高;在信源符号概率比较接近时,算术编码比哈夫曼编码效率要高;算术编码的算法或硬件实现要比哈夫曼编码复杂。算术编码的算法或硬件实现要比哈夫曼编码复杂。26编码过程编码过程将被编码的信源消息表示成实数轴上将被编码的信源消息表示成实数轴上0 01 1之间之间的一个间隔。的一个间隔。消息越长,编码表示它的间隔就越小,表示这一间隔所需二进制位数消息越长,编码表示它的间隔就越小,表示这一间隔所需二进制位数就越多,码字越长。反之,编码所需的二进制位数就少,码

20、字就短。就越多,码字越长。反之,编码所需的二进制位数就少,码字就短。信源中连续符号根据某一模式生成概率的大小来缩小间隔,可能出现信源中连续符号根据某一模式生成概率的大小来缩小间隔,可能出现的符号要比不太可能出现的符号缩小范围少,只增加了较少的比特。的符号要比不太可能出现的符号缩小范围少,只增加了较少的比特。27 编码端:编码端:将待编码的图像数据看作是由多个符号组成的序列。将待编码的图像数据看作是由多个符号组成的序列。接受端:接受端:由二进制分数重建图像符号序列。由二进制分数重建图像符号序列。dcba (0/8)(1/8)(3/8)(7/8)(8/8)0 0.001 0.011 0.111 1

21、(a)单位区间上的码点单位区间上的码点(b)(b)符号序列符号序列“aabaab”算术码的子分过程算术码的子分过程 图图9.10 9.10 算术编码的子分过程算术编码的子分过程dcba ba d cbab28信源编码符号集的所有符号的概率之和组成了一个完整的概率空信源编码符号集的所有符号的概率之和组成了一个完整的概率空间,用单位长度的矩形表示。间,用单位长度的矩形表示。在此长度为在此长度为1 1的单位矩形中,各个符号依次排列,所占宽度和它的的单位矩形中,各个符号依次排列,所占宽度和它的概率大小成正比。概率大小成正比。各个符号的左边的分界线称之为各个符号的左边的分界线称之为“码点码点”,每个码点

22、有其相应的,每个码点有其相应的码点值。码点值。每个码点值是它前面所出现符号的概率之和。每个码点值是它前面所出现符号的概率之和。29 算术编码的过程实质上是对此单位区间的算术编码的过程实质上是对此单位区间的“子分子分”的过程。的过程。设想有一个编码设想有一个编码“指针指针”,随着所编码字的进行,指针就不停地在,随着所编码字的进行,指针就不停地在 对单位区间进行划分。对单位区间进行划分。对对“a a b c a a b c”进行算术编码,其过程如下:进行算术编码,其过程如下:l 1)1)编码前,指针指向码点编码前,指针指向码点“0 0”,指针活动宽度为,指针活动宽度为“1 1”。l 2)2)编码编

23、码“a a”:指针指向新码点:指针指向新码点:0+10+10.011=0.0110.011=0.011;指针有效活动宽度为:指针有效活动宽度为:1 10.1=0.10.1=0.1。30l3)3)编码编码“a a”:指针指向新码点:指针指向新码点:0.011+0.10.011+0.10.011=0.10010.011=0.1001;指针有效活动宽度为:指针有效活动宽度为:0.10.10.1=0.010.1=0.01。l4)4)编码编码“b b”:指针指向新码点:指针指向新码点:0.1001+0.010.1001+0.010.001=0.100110.001=0.10011;指针有效活动宽度为:指

24、针有效活动宽度为:0.010.010.01=0.00010.01=0.0001。31l5)5)编码编码“c c”:指针指向新码点:指针指向新码点:0.10011+0.00010.10011+0.00010.111+0.10100110.111+0.1010011;指针有效活动宽度为:指针有效活动宽度为:0.00010.00010.001=0.00000010.001=0.0000001。l编码结果:编码结果:“10100111010011”。l算法编码名称由来:上述的运算中,尽管含有乘法运算,但它可以用算法编码名称由来:上述的运算中,尽管含有乘法运算,但它可以用右移来实现,因此在算法中只有加法

25、和移位运算。右移来实现,因此在算法中只有加法和移位运算。32 解码过程解码过程 下面以下面以“0.10100110.1010011”的解码过程为例来说明。的解码过程为例来说明。1)1)解码解码“a a”:由于由于0.0110.10100110.1110.0110.10100110.111,解得第一个码字为,解得第一个码字为“a a”。2)2)解码第二个解码第二个“a a”:由码字序列值(由码字序列值(0.10100110.1010011)减去前码点值()减去前码点值(0.0110.011)得:)得:0.1010011-0.011=0.01000110.1010011-0.011=0.01000

26、11。将得到的将得到的0.01000110.0100011乘乘2 2:0.01000110.01000112=0.1000112=0.100011。由于由于0.011 0.100011 0.1110.011 0.100011 0.111,解得第二个码字为,解得第二个码字为“a a”。333)3)解码解码“b b”:由码字序列值(由码字序列值(0.1000110.100011)减去前码点值()减去前码点值(0.0110.011)得:)得:0.100011-0.011=0.0010110.100011-0.011=0.001011。将得到的将得到的0.0010110.001011乘乘2 2:0.0

27、010110.0010112=0.010112=0.01011。由于由于0.001 0.01011 0.0110.001 0.01011 0.011,所以解得第三个码字为,所以解得第三个码字为“b b”。4)4)解码解码“c c”:由码字序列值(由码字序列值(0.010110.01011)减去前码点值()减去前码点值(0.0010.001)得:)得:0.01011-0.001=0.001110.01011-0.001=0.00111。将得到的将得到的0.001110.00111乘乘4 4:0.001110.001114=0.1114=0.111。由于由于0.1110.111恰好是恰好是“c c

28、”的码点,所以解得第四个码字为的码点,所以解得第四个码字为“c c”。34算术编码:算术编码:“aabcaabc”算术编码的结果为算术编码的结果为“10100111010011”,共,共7 7比特。比特。哈夫曼编码:哈夫曼编码:“a a”“0 0”“”“b b”“1010”,“c c”“110110”,“d d”“111111”“aabcaabc”“0 0 10 1100 0 10 110”,共,共7 7比特。比特。这里两者编码结果相同,这里两者编码结果相同,是因为算术编码的序列较短,如果序列是因为算术编码的序列较短,如果序列较长,则算术编码的效率要比哈夫曼编码高。较长,则算术编码的效率要比哈

29、夫曼编码高。H.263H.263视频编码标准中,将算术编码作为一个选项来代替哈夫曼编视频编码标准中,将算术编码作为一个选项来代替哈夫曼编码,以期提高码,以期提高VLCVLC的效率。的效率。算术编码与哈夫曼编码比较:算术编码与哈夫曼编码比较:354 4)GolombGolomb编码编码 l针对哈夫曼编码的编译码比较复杂缺点,可针对哈夫曼编码的编译码比较复杂缺点,可采用一种结构明确的不等长码。采用一种结构明确的不等长码。l将不同统计特性的信源符号根据出现的概率将不同统计特性的信源符号根据出现的概率大小顺序映射到这种不等长码上。大小顺序映射到这种不等长码上。l指数指数GolombGolomb码就是一

30、种结构明确的不等长码。码就是一种结构明确的不等长码。code_num码码字字0110102011300100400101500110600111700010008000100190001010表表9.3 9.3 指数指数ColombColomb编码的码字编码的码字36l将欲编码的一系列事件按概率从高到低排序,对应表中左边一列顺序将欲编码的一系列事件按概率从高到低排序,对应表中左边一列顺序编号,编号,Colomb编码后的码字如表的右栏所示。编码后的码字如表的右栏所示。l每个码字由每个码字由3个部分组成:个部分组成:Codeword=M个个01INFO 例如:例如:Code_num 等于等于“9”

31、“0001001”中间为中间为“1”,左边是,左边是3个个0,即,即M3,右边右边3位位“001”表示表示INFO的内容。的内容。其中:其中:INFO是一个携带信息的是一个携带信息的M位数据;位数据;每个指数每个指数Golomb码字的长度为码字的长度为(2M1)位;位;每个码字都可由每个码字都可由code_num产生。产生。37具体编解码过程:具体编解码过程:编码:编码:对每个待编的对每个待编的code_num,根据下面的公式计算,根据下面的公式计算INFO和和M:lM=floor(log2(code_num+1),(表示舍去小数的运算),(表示舍去小数的运算)lINFO=code_num+1

32、-2M,lcode-num=M个个01INFO。解码:解码:l读出以读出以“1”结尾的前结尾的前M个个“0”,l根据得到的根据得到的M,读出紧接着,读出紧接着“1”后面的后面的M比特的比特的INFO数据,数据,l根据根据code_num=2M+INFO-1 可以还原出可以还原出code_num。注意:对于码字注意:对于码字0,INFO和和M都等于都等于0。38v 9.2.2 9.2.2 有限失真编码有限失真编码根据解码后的数据是否能无失真地恢复出原始数据,编码分为:根据解码后的数据是否能无失真地恢复出原始数据,编码分为:信息信息保持型编码(或称熵编码),保持型编码(或称熵编码),有限失真编码。

33、有限失真编码。1.1.独立信源的率失真理论独立信源的率失真理论条件自信息量:条件自信息量:互信息量:互信息量:39条件熵(条件信息量的平均):条件熵(条件信息量的平均):其中联合概率其中联合概率 平均互信息量平均互信息量 I(X;Y):40l对对I(X;Y)的说明:的说明:p I(X;Y)表示接收端收到表示接收端收到Y后得到的有关后得到的有关X的信息量。的信息量。p 如果如果X、Y 相互独立,则无法从相互独立,则无法从Y中提取中提取X。此时此时I(X;Y)=0。p 如果如果X、Y一一对一一对 应,则已知应,则已知Y就完全解除了关于就完全解除了关于X的不确定度,所的不确定度,所 获信息就是获信息

34、就是X的不确定度或熵,即的不确定度或熵,即I(X;Y)=H(X)。p 一般总有一般总有I(X;Y)H(X)。41率失真函数:率失真函数:在一定允许失真在一定允许失真D条条件下的最低平均互信息量,用件下的最低平均互信息量,用 表示。表示。信息压缩问题就是对于给定的信源,在满足平均失真信息压缩问题就是对于给定的信源,在满足平均失真E(D)D的前的前提下,使信息率尽可能小。提下,使信息率尽可能小。满足这个条件的所有转移概率分布满足这个条件的所有转移概率分布 构成一个假想的信道,称为构成一个假想的信道,称为D允许信道。允许信道。在这些允许信道中,寻找一个信道在这些允许信道中,寻找一个信道p(Y|X),

35、使互信息,使互信息I(X;Y)达到最达到最小。该最小的互信息称为小。该最小的互信息称为信息率失真函数信息率失真函数 ,记为:,记为:42对对于于离散无离散无记忆记忆信道信道,相,相应应有:有:是在平均失真小于允是在平均失真小于允许许失真失真D 以内的能以内的能够编码够编码的的码码率下界。率下界。D代表平均失真,且代表平均失真,且 表示信表示信源发出源发出 而被编码成而被编码成 时引入的失真量。时引入的失真量。43 失真的度量即失真的度量即 的的计计算算:l 均方误差:均方误差:l 绝对误差:绝对误差:l 超视觉阈值均方值超视觉阈值均方值:44两个定理:两个定理:保真度准则下的信源编码定理:保真

36、度准则下的信源编码定理:率失真函数率失真函数 ,对于任意允许的平均失真,对于任意允许的平均失真D0 0,只要码长足够长,只要码长足够长,总可找到一种编码的方法,使码率总可找到一种编码的方法,使码率 下,平均失真下,平均失真D。香农信源编码逆定理(有失真时信源编码逆定理):香农信源编码逆定理(有失真时信源编码逆定理):当码率当码率R小于率失真函数时,无论采用何种编码方式,其平均失真必小于率失真函数时,无论采用何种编码方式,其平均失真必大于大于D。45 失真率函数:失真率函数:在给定信息率在给定信息率R下,改变编码方下,改变编码方法寻找尽可能小的平均失真法寻找尽可能小的平均失真(R)。2.2.对有

37、记忆信源的处理对有记忆信源的处理 有记忆信源发出的符号序列之间有相关性,有记忆信源发出的符号序列之间有相关性,可先进行变换去除相关性,然后再对新符号进行编码。可先进行变换去除相关性,然后再对新符号进行编码。46v 9.2.3 9.2.3 编码性能参数编码性能参数平均平均码码字字长长度:度:bitbit :第:第k个个码码字字长长度度 :第:第k个个码码字出字出现现的概率的概率 压缩比:压缩比:C=(一般(一般总总有有C1):分:分别为压缩别为压缩前、后前、后图图像每像素的平均比特数像每像素的平均比特数 编码编码效率:效率:(一般(一般)冗余度:冗余度:=1最佳编码的含义:最佳编码的含义:编码结

38、果应使编码结果应使R R 等于或很接近于等于或很接近于H H。479.3 9.3 预测编码和变换编码预测编码和变换编码v 9.3.1 9.3.1 预测编码原理预测编码原理 基于图像的统计特性进行,利用图像信号的空间或时间相关性基于图像的统计特性进行,利用图像信号的空间或时间相关性 用已传输的像素对当前的像素进行预测,然后对预测值与真实用已传输的像素对当前的像素进行预测,然后对预测值与真实值的差值的差预测误差进行编码处理和传输。预测误差进行编码处理和传输。预测编码扩大了动态范围,并不压缩数据量,但可以作出一组预测编码扩大了动态范围,并不压缩数据量,但可以作出一组恰当的预测系数,使得预测误差的分布

39、大部分集中在恰当的预测系数,使得预测误差的分布大部分集中在“0 0”附近。附近。预测编码预测编码48预测编码阶数的确定预测编码阶数的确定 收端解码与发端本地解码器一样。收端解码与发端本地解码器一样。预测器输出是输入的线性组合。预测器输出是输入的线性组合。N 阶表示输出由阶表示输出由N个输入数据线性组个输入数据线性组合而成。合而成。由于一帧内像素间的相关系数在较小范围内呈指数衰减关系,由于一帧内像素间的相关系数在较小范围内呈指数衰减关系,因此,因此,阶数不宜过长,一般为阶数不宜过长,一般为N4 4。49v 9.3.2 9.3.2 最佳线性预测最佳线性预测 定义:定义:使预测器的某种误差函数为最小

40、的线性预测器,使预测器的某种误差函数为最小的线性预测器,普遍用均方预测误差最小。普遍用均方预测误差最小。下面推导最佳线性预测系数的求导。下面推导最佳线性预测系数的求导。50均值(数学期望)均值(数学期望)离散离散 连续连续 f(x)为为概率密度概率密度函数函数 方差:方差:标准差均方差标准差均方差 均方值均方值 概率知识复习概率知识复习51 设设,将随机变量,将随机变量 和和 的二阶原点混合矩,的二阶原点混合矩,记作:记作:称为称为自相关函数自相关函数,简称,简称相关函数相关函数,又可简记为,又可简记为,的二的二阶阶中心混合矩:中心混合矩:称为称为自协方差函数自协方差函数,简称,简称协方差函数

41、协方差函数,也可简记为,也可简记为 自相关函数自相关函数自协方差函数自协方差函数52 设设N阶预阶预测器,用测器,用 来预测来预测 则预测值则预测值 为:为:于是于是预测误差预测误差e:过程推导过程推导53 预测误差均方值:预测误差均方值:采用均方误差极小准则,对各系数求导,即采用均方误差极小准则,对各系数求导,即(i1,2,N)由上式可解出由上式可解出,这时这这时这些系数称些系数称为为最佳最佳预测预测系数。系数。54在此在此约约束条件下,将上面各个信号束条件下,将上面各个信号都减去其均都减去其均值值,化,化为为零均零均值过值过 程,此时程,此时 j j1 1,2 2,N N ()如果预测器恒

42、定的输入得到恒定的输出,则其系数必须满足如果预测器恒定的输入得到恒定的输出,则其系数必须满足 55 ,为为信号信号协协方差方差。(的本的本义为义为自相关,但此自相关,但此处处由于零均由于零均值值,自相关自相关自自协协方差方差)的说明的说明 表示表示图图像信号的方差像信号的方差56 因此,因此,最佳最佳预测预测系数系数为为:把把式写成矩阵形式:式写成矩阵形式:57 此时,此时,预测误差的均方值预测误差的均方值为:为:,即,即误误差序列的方差比原信号序列的方差要小,因此,差序列的方差比原信号序列的方差要小,因此,传传送差送差值值比直接比直接传传送原送原值值更有利于数据更有利于数据压缩压缩,当,当时

43、时,即,即邻邻点不点不相关时,预测不能提高压缩比。相关时,预测不能提高压缩比。58例:例:对对二二维维零均零均值值随机随机图图像中的像素像中的像素作作线线性性预测预测,自相关系数,自相关系数定义为定义为,设,设,求最佳预,求最佳预 测系数测系数。解:解:59求偏导:求偏导:整理化简为:整理化简为:60预测系数为:预测系数为:写成矩阵形式:写成矩阵形式:61v 9.3.3 9.3.3 变换编码原理变换编码原理u基本概念:基本概念:将空间域里描述的图像,经过某种变换(常用的是二维正交变换,将空间域里描述的图像,经过某种变换(常用的是二维正交变换,如付里叶变换、离散余弦变换、沃尔什变换等),如付里叶

44、变换、离散余弦变换、沃尔什变换等),在变换域中进行描述,达到改变能量分布的目的。在变换域中进行描述,达到改变能量分布的目的。u优点:优点:l将能量在空间域的分散分布变为在变换域的相对集中分布将能量在空间域的分散分布变为在变换域的相对集中分布l有利于进一步采用其它的处理方式,如有利于进一步采用其它的处理方式,如“之之”(zig-zagzig-zag)字形扫字形扫描、描、自适应量化、变长编码等,从而对图像信息量进行有效压缩。自适应量化、变长编码等,从而对图像信息量进行有效压缩。62u物理解释:物理解释:图像正交变换实现数据压缩的物理本质:图像正交变换实现数据压缩的物理本质:经过坐标旋转或变换,能够

45、把接近均匀散布在各个坐标轴上的原经过坐标旋转或变换,能够把接近均匀散布在各个坐标轴上的原始图像数据,变换在新的坐标系中,集中在少数坐标上。始图像数据,变换在新的坐标系中,集中在少数坐标上。可用较少的编码比特表示一幅子图像。可用较少的编码比特表示一幅子图像。图图9.13 9.13 正交变换物理概念正交变换物理概念0 1 2 3 4 5 6 77 76 65 54 43 32 21 1(a)变换前变换前x1x20 1 2 3 4 5 6 77 76 65 54 43 32 21 1(b)变换后变换后x1x2y1y263 从左图可以看出,相邻像素之间的相关性非常强。从左图可以看出,相邻像素之间的相关

46、性非常强。从右图可以看出,直流系数位于左上角。从右图可以看出,直流系数位于左上角。变换域要传送的数据量比空间域的大大减少。变换域要传送的数据量比空间域的大大减少。591 106 591 106 18 28 18 28 34 14 18 34 14 18 3 3 35 0 0 0 0 0 0 0 35 0 0 0 0 0 0 0-1 0 0 0 0 0 0 0-1 0 0 0 0 0 0 0 3 0 0 0 0 0 0 0 3 0 0 0 0 0 0 0-1 0 0 0 0 0 0 0-1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0-1 0 0 0

47、 0 0 0 0-1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0(b)DCT(b)DCT系数矩阵系数矩阵图图 9.14 9.14 一个子图象的二维余弦变换实例一个子图象的二维余弦变换实例98 92 95 80 75 82 68 50 98 92 95 80 75 82 68 50 97 91 94 79 74 81 67 4997 91 94 79 74 81 67 4995 89 92 77 72 79 65 4795 89 92 77 72 79 65 4793 87 90 75 70 77 63 45 93 87 90 75 70 77 6

48、3 45 91 85 88 73 68 75 61 4391 85 88 73 68 75 61 4389 83 86 71 66 73 59 41 89 83 86 71 66 73 59 41 87 88 84 69 64 71 57 3987 88 84 69 64 71 57 3985 79 82 67 62 69 55 3785 79 82 67 62 69 55 37(a)(a)子图像矩阵子图像矩阵DCTxyuv00u实例分析:实例分析:64关于正交变换码压缩的说明:关于正交变换码压缩的说明:将被处理的数据按照某种变换规则映射到另一个域中处理。将被处理的数据按照某种变换规则映射到另

49、一个域中处理。如果将一幅图像作为一个二维矩阵,则其正交变换计算量太大,如果将一幅图像作为一个二维矩阵,则其正交变换计算量太大,通常将图像分成通常将图像分成8 88 8或或16161616的小块进行处理。的小块进行处理。正交变换没有压缩数据量,不改变信源的熵,正交变换没有压缩数据量,不改变信源的熵,正交变换前后能量不变,只是重新分配。正交变换前后能量不变,只是重新分配。变换前后信息量没有丢失。变换前后信息量没有丢失。65v 9.3.4 9.3.4 基于分块基于分块DCTDCT的压缩编码的压缩编码如果将一幅图像作为一个二维矩阵,则其正交变换的计算量太如果将一幅图像作为一个二维矩阵,则其正交变换的计

50、算量太 大,难以实现。所以在实用中,往往采用分块变换的处理方法。大,难以实现。所以在实用中,往往采用分块变换的处理方法。变换块大小的选择十分重要。变换块大小的选择十分重要。l块太小,不利于压缩比的提高。块太小,不利于压缩比的提高。l块过大,则不但计算复杂,而且距离较远的像素间相关性减少,块过大,则不但计算复杂,而且距离较远的像素间相关性减少,压缩比提高不快。压缩比提高不快。l一般图像典型变换块大小为一般图像典型变换块大小为4 44 4、8 88 8或或16161616。现在最常用的方法是二维离散余弦变换(现在最常用的方法是二维离散余弦变换(DCTDCT)。)。669.4 9.4 量量 化化量化

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 生活休闲 > 生活常识

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁