基于描述长度的context建模算法-陈建华.pdf

上传人:1890****070 文档编号:105128 上传时间:2018-05-12 格式:PDF 页数:7 大小:1.07MB
返回 下载 相关 举报
基于描述长度的context建模算法-陈建华.pdf_第1页
第1页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《基于描述长度的context建模算法-陈建华.pdf》由会员分享,可在线阅读,更多相关《基于描述长度的context建模算法-陈建华.pdf(7页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、第 38 卷第 3 期 电 子 与 信 息 学 报 Vol . 38No.3 2016 年 3 月 Journal of Electronics & Information Technology Mar . 2016 基于描述长度的Context建模算法 陈建华*王 勇 张 鸿 (云南大学信息学院电子工程系 昆明 650091) 摘 要:在基于 Context 建模的熵编码系统中,为了达到预期的压缩性能,需要通过 Context 量化来缓解由高阶Context 模型所引入的“Context 稀释”问题。为此,该文提出一种通过最小化描述长度来实现 Context 量化(Minimum Descr

2、iption Length Context Quantization, MDLCQ)的算法。该算法使用描述长度作为评价准则,通过动态规划算法来实现单条件的最优 Context 量化,然后通过循环迭代来实现多条件的 Context 量化。 该算法不仅可以得到多值信源的优化 Context 量化器,而且可以自适应地确定各个条件的重要性从而确定模型的最佳阶数。实验结果表明:由 MDLCQ 算法所得到的 Context 量化器,可以明显改善熵编码系统的压缩性能。 关键词:条件熵编码;Context 量化;描述长度;算术编码 中图分类号:TN 919.81 文献标识码: A 文章编号:1009-5896

3、(2016)03-0661-07 DOI: 10.11999/JEIT150562 Context Modeling Based on Description Length CHEN Jianhua WANG Yong ZHANG Hong (School of Information Science and Engineer, Yunnan University, Kunming 650091, China) Abstract: In entropy coding systems based on the context modeling, the “context dilution” pr

4、oblem introduced by high-order context models needs to be alleviated by the context quantization to achieve the desired compression gain. Therefore, an algorithm is proposed to implement the Context Quantization by the Minimizing Description Length (MDLCQ) in this paper. With the description length

5、as the evaluation criterion, the Context Quantization Of Single-Condition (CQOSC) is attained by the dynamic programming algorithm. Then the context quantizer of multi-conditions can be designed by the iterated application of CQOSC. This algorithm can not only design the optimized context quantizer

6、for multi-valued sources, but also determine adaptively the importance of every condition so as to design the best order of the model. The experimental results show that the context quantizer designed by the MDLCQ algorithm can apparently improve the compression performance of the entropy coding sys

7、tem. Key words: Conditional entropy coding; Context quantization; Description length; Arithmetic coding 1 引言近些年来, Context 建模被广泛地用来改善编码系统的压缩性能。 2006 年, 文献1 优化了 Context量化算法以改善 JPEG2000 中图像小波变换系数的比特平面编码。 2012 年, 文献2利用改进的游程编码和基于 Context 建模的自适应算术码对嵌入式代数矢量量化器的二进制索引值进行压缩,以提高音频类信源的编码效率。2013 年,文献 3在近无损CALIC系

8、统中通过 Context建模的思想来优化预测误差的标量量化器的性能。 2014 年, 文献4利用预测误差建立 Context 模型,通过将矢量量化映射为非均匀的标量量化来自适应地实现 Context 量化,收稿日期: 2015-05-11;改回日期; 2015-12-04;网络出版: 2016-02-03 *通信作者:陈建华 基金项目:国家自然科学基金(61062005) Foundation Item: The National Natural Science Foundation of China (61062005) 以获得明显的无失真图像压缩增益。同年,文献 5针对 RGB 彩色图像

9、,提出了一种分层预测算法并采用基于 Context 建模的自适应算术码来实现对预测误差的高效熵编码。由此不难看出,建立 Context模型是提高信源符号压缩效率的有效方法。 有效、准确地估计反映信源统计特性的条件概率分布是改善编码系统压缩性能的关键,这个研究领域也引起了越来越多编码研究者的关注6 8。然而在建立高阶的 Context 模型时,已编码的信源序列可能无法提供足够的 样本使得统计分布直方图收敛于“真实”的信源条件概率分布,从而导致信源序列压缩性能变差。 1996 年, 文献9 在进行灰度图像的 Context 建模时对此进行了分析,并将其称为“Context 稀释”,同时指出可以通过

10、某种 Context量化措施来解决此问题。2000 年,文献10 在研究Context 模型的模型代价时指出 Context 量化是一般矢量量化的一种特例,并给出了最小化条件熵662 电 子 与 信 息 学 报 第 38 卷 Context 量化算法(Minimum Conditional Entropy Context Quantization, MCECQ)。 2004 年, 文献11对基于条件熵的 Context 量化问题进行了深入的理论分析。2010 年,文献12 通过最大化条件概率分布之间的互信息来实现 Context 量化 (Maximum Mutual Information C

11、ontext Quantization, MMICQ)。然而在上述算法中,均要提前指定Context 量化级数。有鉴于此, 文献13 曾提出一种无需提前指定量化级数且基于自适应码长的二元序列 Context 量化算法,它使用动态规划算法来寻找全局最优的 Context量化器(Minimum C ode Length Context Quantization, MCLCQ)。然而此算法仅适用于二值信源,因为 0-1 分布可以只用一个概率值来表示,从而将 Context 量化这种矢量量化转化为标量量化, 所以非二值信源需要通过某种投影映射成二值信源才可以使用 MCLCQ 算法。但是这种映射变换会影

12、响信源序列内符号之间的相关性从而导致压缩性能变差。考虑到最优标量量化可以使用动态规划算法 来实现,文献 14提出的 MRP (Minimum-Rate Predictors)无失真图像压缩算法中 将多个 Context条件值进行 平均, 再使用动态规划算法对此平均值进行标量量化从而实现高阶 Context 模型的量化。实际上,文献4 也是采用同样的思路来实现高阶Context 模型的量化,但是为降低运算复杂度,采用了一种简化的标量量化算法来代替动态规划算法。 本文所提出的基于描述长度的 Context 建模算法改进了上述算法中存在的不足:不仅可以确定Context 模型中各个条件的最优 Con

13、text 量化级数,而且可以适用于多值信源的 Context 量化。在给出作为 Context 量化评价准则描述长度的计算公式的前提下,首先利用动态规划算法来实现单条件Context 量化,然后将单条件 Context 量化算法推广至多条件的 Context 量化。编码结果表明此算法可以明显地改善基于 Context 建模的熵编码系统的编码性能。 2 Context模型与描述长度 2.1 Context模型 由于大部分信源是一种局部平稳随机信源,所以相邻样本之间具有较强的相关性。因而在信源编码系统中,利用已编码样本作为条件来构建当前待编码样本的条件概率分布以实现信源序列的压缩,是一种重要技术,

14、即 Context 建模。 若 x 为当前待编码的样本,12,Tcc c 为从临近已编码样本中抽象出来的条件,且和样本 x 具有较强的相关性,则在建立 Context 模型时,首先需要确定模型中所用的条件个数 T (即模型阶数) 。若模型中每个条件有 S 种可能取值,则共有TS 种特定的条件取值组合所对应的 Context 统计直方图需要进行计数,换言之,共有TS 个条件概率分布需要进行估计。因此当 T 或 (及 )S 过大时,就会导致信源序列无法提供足够的样本数据来估计TS 个条件概率分布,从而产生“Context 稀释”。而 Context 量化是解决这个问题的有效手段,通过将不同条件取值

15、组合下的 Context 统计直方图按照一定的准则归为一类以降低 Context 模型中条件概率分布的数量,从而充分、合理地利用条件信息来估计所需的条件概率分布。 2.2 描述长度 在进行信源序列的编码时,不仅需要对信源所产生的数据序列进行编码,而且需要对编码时所用的概率模型进行编码,所以一个理想的压缩性能评价准则应该能够衡量对这两部分信息进行编码所需要的总比特数。因为每一种特定的 Context 条件取值组合对应着一个特定的信源子序列,所以每一个信源子序列可以用来估计一个相应的条件概率分布。当使用此条件概率分布对相应的信源子序列进行编码时,对上述两部分信息编码所需的比特数可以用如下定义的描述

16、长度来确定。 当使用第 p (1 )TpS 号子序列来估计相应的条件概率分布时,若该子序列中各样本的取值有K 种,每个符号出现的次数分别为01 1,Knn n ,设每个符号的初始计数值为01 1, Knn n ,则该子序列及其对应概率分布的描述长度为 0010ln 1 ! ln 1 !ln 1 ! ln 1 !pKi iiil NN Nn nn (1) 其中,100KiiNn, 10KiiNn。于是整个信源序列的描述长度为1TSppLl。 Context 量化的实质就是减少 Context 模型中条件概率分布的数量,为此可以定义一组分类函数 : 0, 1, , 1 ( ) 0, 1, , 1t

17、 ttf x S fx R ,其中()tR S tT 1 ,将原来 Context 模型中各条件的S 种可能取值映射为tR 种可能取值。此时, Context模型中条件概率分布的数量由TS 减少为 1TttQR。最优 Context 量化即为找到令1QppLl最小的一组分类函数。 3 算法描述 3.1 单条件Context模型的量化 当只取一个条件作为 Context 模板时,由信源第 3期 陈建华等: 基于描述长度的 Context建模算法 663 序列可以得到 S 个统计分布直方图。在每个统计分布直方图中,共有 K 种样本取值需要进行统计计数,所以每个统计分布就是一个含有 K 个元素的计数

18、矢量。每个计数矢量就可以使用描述长度来衡量。 由大部分信源统计特性的局部平稳性可知,在条件取值小的计数矢量中,取值小的样本的计数值大,取值大的样本的计数值小,而在条件取值大的计数矢量中则相反。因此条件取值相近的统计 分布直方图的轮廓是相似的。换言之,条件取值相近的条件概率分布是相似的,所以可以将其合并以减少Context 模型中条件概率分布的数量。然而哪些取值连续的条件应该归于一类及所有条件值应分为多少类是未知的。但是由于条件本身的取值个数是有限的,且具有数值可排序性。这就为利用动态规划算法进行 Context 量化提供了可能。 为方便起见,将条件计数矢量+1ii j, ,CC C 的划分策略

19、记为 :ijC ,则需要找到12, ,SCC C 的一种划分 1:SC 能够使其描述长度 L 最短。设一种划分在条件kc 和1kc处断开 1 kS( ) ,则 1:SC的最佳划分策略就由 1:kC 和 1:kSC 这两个子最佳划分策略组成。由此不难看出,该问题满足最优子结构性质,所以此问题可以使用动态规划算法进行求解。设划分策略 :ijC 1 ijS 所能达到的最短描述长度为 mi j,则原问题的最优值为 1mS,最优解为 1:SC 。 当 ij 时, :iijCC为单一计数矢量,此时无需进行划分,利用式(1 )即可计算出此计数矢量的描述长度,因此 m i j mi i , 1, 2, ,iS

20、 。 当 ij 时,可利用最优子结构的性质来计算 mi j。若将计数矢量1, ,ii jCC C 划分为一个整体时可以使 mi j最小,则通过将条件1, ,ii jcc c所 对应的多个计数矢量的计数值对应累加进而求出其描述长度;若 :ijC 需要在 条件kc 和1kc(ik )j 之间进行划分,则 = + +1mi j mi k mk j。由于划分时并不知道断点 k 的位置,所以 k 未定。但是由于 k 的位置只能有 ji 种,即 , 1, ,k ii 1j ,所以 k 是这 ji 种可能取值中可以使 mi j最小的取值。从而 mi j可以递归地定义为 ,= ,min + +1 ,ijikj

21、mi i i jmi j l i jmi k mk j i j且不需划分且需要划分(2) 其中ijl 表示由条件值为 i 到 j 的所有计数矢量的计数值叠加而得到的计数矢量的描述长度。则 mi j给出了计数矢量+1, ,CC Cii j在某 种划分策略 :ijC 下可以达到的最短描述长度。同时可确定 :ijC 的最佳划分断点 k 的位置。若将对应于 mi j的断开位置 k 记为 si j,则在计算出最优值 1mS后,可以由 1sS递归地构造出相应的最优解,此最优解即是该条件的最佳划分策略。 通过上述算法可以得到如图 1 所示的单条件Context 量化结果。其中图 1(a)表示将单条件的 S

22、个计数矢量映射成 R 个计数矢量,则该条件的最优Context 量化级数为 R , R 越大就表示该条件划分得越细。量化后的每个计数矢量通过将若干个条件取值连续的计数矢量的计数值叠加而得到;图 1(b)是该条件的条件分段映射表,将原条件的 S 种连续的取值映射为 R 种连续的取值,即为此条件的最优Context 量化器。 3.2 多条件Context模型的量化 当取多个条件作为 Context 模板时,因为这些条件所构成的矢量不具备可排序性,不能直接使用动态规划算法进行上述优化,所以我们设计了一种基于单条件 Context 量化来实现多条件 Context 量化的算法。其基本思路为:首先利用单

23、条件 Context量化算法实现一个条件的最优量化,然后再利用该条件的量化结果对新添加的一个条件进行 Context量化,此时由于新条件的引入,需要对两个条件组成的 Context 模板重新进行计数,那么原条件的量化结果就不再是两个条件下的最优,因此需要使用新条件的量化结果对原条件重新量化,如此反复迭代,直到两个条件下的描述长度达到最短时,即可得到两个条件下的优化 Context 量化器。在此基础上,再引入一个新的条件按照同样的思路进行反复迭代,以实现多条件的优化 Context 量化。 实现多条件 Context 量化的过程如图 2 所示。当需要对由两个条件所得到的2S 个计数矢量进行Con

24、text 量化时,可用图 2 中的 X 轴,Y 轴分别代表条件ic 和jc 。首先在中利用单条件 Context 量化算法得到条件ic 的量化结果:分段映射表1tablei及量化级数11iXR ;然后在 中利用 的量化结果对新添加的条件jc 进行 Context 量化,此时,由 图 1 单条件的 Context 量化结果 664 电 子 与 信 息 学 报 第 38 卷 于条件ic 和jc 的取值分别有1iR 和 S 种,则需要使用训练集对1XS个“胞腔”重新进行统计计数,然后再使用单条件 Context 量化算法对1XS个计数矢量在条件jc 上进行量化,从而得到如 所示的量化结果:分段映射表

25、1tablej及量化级数11jYR ;由于条件jc 的引入,原来 中单条件ic 的最优量化结果已不是两个条件下的最优,所以需要对条件ic 重新进行 Context 量化;此时与上一步中对条件jc 的处理过程相同,但在 中需要对1YS个“胞腔”重新进行计数,进而可以得到如 所示的条件ic 的量化结果:分段映射表2tablei及量化级数22iXR ;由于条件ic 和jc 相互影响,所以需要在 中利用 的结果对条件jc 重新进行 Context 量化。该过程不断进行,直到其描述长度不再减小,则最后所得到的条件ic 和jc 的量化结果即为两个条件下的优化Context 量化策略。 当需要对由 3 个条

26、件ic ,jc ,kc 所得到的3S 个计数矢量进行 Context 量化时,可以先利用上述两条件 Context 量化算法得到条件ic 和jc 的量化级数分别为1iR 和1jR ,此时图 2 的 就表示这两个条件的量化结果,共有1 11ijX RR 个“胞腔”。当引入新条件kc 时,由于条件kc 有 S 种可能取值,所以在 中需要使用训练集对1XS个“胞腔”重新进行计数,然后利用单条件 Context 量化算法在条件kc 上对1XS个计数矢量进行 Context 量化,即可确定条件kc 的量化级数为1kR ;此时由于条件kc 的引入需要对条件ic 和jc 重新进行量化:首先利用条件jc 和k

27、c的量化结果对条件ic 进行量化,然后再利用条件ic和kc 的量化结果对条件jc 进行量化。 图 2 多条件 Context 量化过程示意图 此时,图 2 中的 表示条件jc 和kc 的量化结果,有1 11jkY RR 个“胞腔”。当利用这两个条件的量化结果对条件ic 重新进行量化时,由于在 中条件ic (即 X 轴)有 S 种可能取值,则首先需要使用训练集对1YS个“胞腔”进行计数,然后在条件ic 上运用单条件 Context 量化算法得到其量化级数为2iR 。那么图 2 中的 就表示条件ic 和kc 的量化结果,有2 21ikX RR 个“胞腔”; 表示条件jc 有 S 种可能取值。所以当

28、对条件jc 重新进行量化时,需要对2XS个“胞腔”进行计数,最后得到其量化级数为2jR 。至此,就已经实现了条件ic 和jc 再次量化,继而就可以利用这两个条件新的量化结果对条件kc 进行二次量化。重复此迭代过程,直到在 3 个条件ic , jc 和kc 下,其描述长度达到最短时,便可实现 3 个条件的优化 Context 量化。按照同样的思路进行扩展,即可实现多条件的 Context 量化器设计。在最终的量化器中,条件被量化的越细,就表示该条件越重要;反之,若一个条件被映射成同一个值,则表示该条件不提供有效信息,可以从 Context 模型去掉。 3.3 多条件Context量化算法的实现

29、(1)选定作为训练集的信源序列,按照所给定的Context 模板,使用条件12,Tcc c , 对训练集进行统计计数得到TS 个初始的 Context 计数矢量; (2)初始化条件计数器 1N (表示有 N 条件参加 Context 量化),然后使用单条件 Context 量化算法对当前条件进行 Context 量化; (3)若 NT( T 为所取条件数的上限值 )则1NN (即引入一个新条件) ,利用1TS个计数矢量的量化结果和上节所述多条件 Context 量化的方法对TS 个计数矢量进行 Context 量化,实现 N 个条件的 Context 量化; (4)当 NT时, MDLCQ 算

30、法结束。此时,各个条件的最后一次量化结果便是 T 个条件的最优Context 量化器。 4 仿真实验 由于本文所提出的 Context 建模算法仅是对编码系统的熵编码部分的优化,为体现该算法不依赖于任何特定编码系统而具有的良好熵编码性能,所以直接对没有进行去相关处理的原始信源符号进行压缩编码。实验对象选用 512512 且每像素 8 bit的灰度图像,但这种图像信源符号集合过大(256 种符号), 进行 Context 建模时, 可能的条件概率分布过多,从而导致统计训练困难。 因此我们对所有图像进行 16 级量化变成每像素 4 bit 的简化图像以减小符号集合(16 种符号), 但简化后的图像

31、像素间的第 3期 陈建华等: 基于描述长度的 Context建模算法 665 相关性与原始图像并无太大差异。 本实验所用到的标准灰度图像如图 3 所示,其中图 3(a)图 3(e)作为训练集数据,图 3(f)图 3(k)则用来测试熵编码器的性能。 根据先验经验,实验中选择如图 4 所示的 5 阶Context 模板 来建立 Context 模型以 进行条件熵编码 ;采用的信源 熵 编码算法是 自适应算术码,并 且编码时所用的条件概率分布均初始化为全 1 的均匀分布。 若 不取条件 直接对像素 x 进行编码,则简化图像的编码结果如表 1 中的第 2 列所示。当仅取一个条件时,例如1c 或2c ,

32、其编码结果如表 2 中的第 3列,第 4 列所示。从表 1 的编码结果不难看出,单条件 Context 模型 可以显著提高压缩效率 ,但对不同的简化图像,这两个条件与当前像素的相关度不一样 ,故其压缩效果不同 。 需要说明的是,对于简化图像训练集而言, 当 只取一个条件时只有 16 个条件概率分布需要进行估计,因此每个条件概率分布均有足够的样本进行参数估计,所以实际上 MDLCQ 算法对单条件 Context 模型不进行条件值的合并 ,即取一 表1 单条件Context模型的编码结果(bpp) 简化图像 不取条件 条件1c 条件2c lena 3.349 1.459 1.307 crowd 2

33、.890 1.328 1.363 man 3.247 1.583 1.468 couple 3.141 1.737 1.657 goldhill 2.871 1.551 1.550 pentagon 2.811 1.653 1.674 个条件时简化图像量化前、后的编码结果相同。 当取 5 个条件建立 Context 模型时,首先将训练集中的简化图像按照图 4 所示的 Context 模板进行统计计数以得到初始的 165个计数矢量;然后使用 MDLCQ 算法来设计各条件的最优 Context 量化器。 首先按照12345ccccc 顺序进行Context 量化,各条件量化级数随迭代次数增加的变化

34、趋势如图 5(a)所示,即在条件1c 量化完成后,于第 3 次迭代时引入条件2c ,并在条件12,cc量化完 图 3 标准灰度图像集 666 电 子 与 信 息 学 报 第 38 卷 图 4 5 阶 Context 模板 成后,于第 5 次迭代时再引入条件3c ,如此逐渐增加条件直至最终实现 5 个条件的 Context 量化,从而确定条件1c 至5c 的 Context 量化级数分别为 16, 15, 16, 4, 1。但在图中条件1c 和3c 量化级数的变化规律相同,故其变化曲线重合。 为验证 MDLCQ算法的结果对条件量化顺序不敏感,再按照54321ccccc 逆序进行Context 量

35、化,得到条件12345,cc c c c,的 Context量化级数分别为 15, 14, 15, 7, 1,并且其量化级数的变化趋势如图 5(b)所示。通过这两种不同顺序的Context 量化结果不难看出,虽然两次不同顺序时对应条件的量化级数不完全相同,但条件1c 和3c 均被量化得最细,条件2c 次之;而条件5c 总是被量化为同一个条件概率分布 。这是因为在图 4 所示的Context 模板中,根据图像由上至下、从左到右的扫描顺序可知,条件1c 不仅离 x 最近,而且提供了即将出现的 x 在水平方向的特征信息,条件3c 则从右上方提供了关于 x 在水平和垂直两方面的信息,故包含了部分2c

36、从上方所能提供的有关 x 在垂直方向的信息,所以条件1c 和3c 最重要,其量化级数最高,略优于条件2c 。同时, 条件4c 所提供的关于 x 的大部分信息已由条件1c 和2c 所确定,因此条件4c 的量化级数较低;而条件5c 关于 x 的信息 基本已 由条件1c 所提供,因此在与1c 共同使用时,条件5c 不提供有效信息,进而可从 Context 模型中去掉,从而可以确定对此训练集而言,该 Context 模型的最佳条件数为 4。最后,在图 6 中给出不同的条件量化顺序下,此训练集描述长度的变化趋势。虽然 MDLCQ 算法在顺序量化时进行了 11 次迭代运算, 逆序量化时进行了 23 次 迭

37、代,但是其最小描述长度均收敛于同一个值附近,即表明此算法对不同的条件量化顺序都具有较好的收敛性。 利用上述两种不同条件量化顺序下的 Context量化器对同样进行了 16 级量化的简化图像数据进行编码,其结果由表 2 中的第 2,第 3 列给出。显然这两组结果非常接近,这说明了由不同条件量化顺 序所得到的 Context 量化器具有相近的量化性能。而原始 Context 模型 (即不加量化的 5 阶模型)的编码结果列于表 2 中的第 4 列,用于对照。为体现 MDLCQ 算法的有效性, MCECQ 算法及MMICQ 算法的编码结果分别由表 2 中的第 5,第 6列给出。其中经过多次 反复测试,

38、用于对照的MCECQ 及 MMICQ 算法 在量化级数分别为 800, 200 左右时 ,获得的 Context 量化器对所有简化图像的编码都 可以得到 较好的压缩性能 。 同时将两个近年来优秀的图像压缩算法( 文献4 和 文献14 )中的 Context 量化算法的实验结果列于表 2 的 第 7,第 8 列,加以对比。但应注意文献4 的 Context 量化算法也需要根据经验提前给出量化级数。需要说明的是,在文献4与文献 14中, Context 量化实现时 ,是按图像的局部统计特性自适应地设计不同的量化器来实现的,而在本文中,所有算法均是针对相同的训练集只 设计一个量化器用于对测试图像的编

39、码。 对于所测试的简化图像数据而言,从表 1,表 2的编码结果可以看出,Context 模型可以显著提高熵编码系统的压缩效率,并且多条件 Context 模型的编码性能明显优于单条件 Context 模型的编码性能;由表 2 可知,Context 量化确实可以明显改善基于 Context 建模的熵编码系统的压缩性能,并且MDLCQ 算法所设计的 Context 量化器的压缩性能明显优于近年来文献报道的 Context 量化算法的结果,而且设计 Context 量化器时,各条件的量化顺序对最终量化器的性能影响不明显。 表2 5条件Context模型的编码结果(bpp) 简化图像 顺序量化 逆序量

40、化 原始 Context 模型 MCECQ10MMICQ12MRP14文献4 lena 1.026 1.028 1.208 1.075 1.091 1.214 1.217 crowd 1.047 1.047 1.251 1.117 1.163 1.222 1.221 man 1.230 1.230 1.463 1.293 1.328 1.416 1.416 couple 1.350 1.358 1.616 1.456 1.542 1.640 1.640 goldhill 1.293 1.295 1.512 1.355 1.387 1.429 1.430 pentagon 1.353 1.354

41、 1.549 1.427 1.455 1.573 1.574 第 3期 陈建华等: 基于描述长度的 Context建模算法 667 图 5 各条件量化级数随迭代次数的变化趋势 图 6 不同量化顺序时描述长度 随迭代次数的变化趋势 5 结束语 高阶 Context 模型的最佳 Context 量化器需要对多个条件的取值同时进行量化,但这个要求无法利用动态规划算法直接实现。本文提出的 MDLCQ算法采用对各条件取值逐个地进行 Context 量化,再通过循环迭代来得到多条件的优化 Context 量化器,有效地解决了多值信源的多条件 Context 模型的量化问题。虽然本文算法所设计的 Conte

42、xt 量化器只是一种优化的或者全局意义下次优的 Context量化器,但它不仅在多值信源的情况下能自适应地提供各条件 取值的最佳的量化级数,而且同时解决了各 Context 条件的选择或重要性评价问题。因此MDLCQ算法提供了很好的 Context模型优化效果。今后,将继续针对 Context 条件取值量化这一特殊的 Context 量化形式,利用动态规划算法来实现最优的 Context 量化器设计。 参 考 文 献 1 周映虹, 马争鸣. 基于上下文建模的分类排序小波图像编码算法J. 电子与信息学报, 2006, 28(12): 2405-2408. ZHOU Yinghong and MA

43、 Zhengming. Context-based quantization and sorting in wavelet image codingJ. Journal of Electronics & Information Technology, 2006, 28(12): 2405-2408. 2 LAKHDHAR K and LEFEDVRE R. Context-based adaptive arithmetic encoding of EAVQ indicesJ. IEEE Transactions on Audio, Speech and Language Processing,

44、 2012, 20(5): 1473-1481. 3 CHUAH S, DUMITRESCU S, and WU Xiaolin. 2 optimized predictive image coding with boundJ. IEEE Transactions on Image Processing, 2013, 22(12): 5271-5281. 4 STRUTZ T. Entropy based merging of context models for efficient arithmetic codingC. IEEE International Conference on Ac

45、oustic, Speech and Signal Processing, Florence, Italy, 2014: 1991-1995. 5 KIM S and CHO N I. Hierarchical prediction and context adaptive coding for lossless color image compressionJ. IEEE Transactions on Image Processing, 2014, 23(1): 445-449. 6 XU Mantao, WU Xiaolin, and Pasi F. Context quantizati

46、on by kernel fisher discriminantJ. IEEE Transactions on Image Processing, 2006, 15(1): 169-177. 7 WANG Wei, PENG Shuyan, and CHEN Jianhua. Context quantization based on the ant K-Means clustering algorithmC. International Conference on Systems and Informatics, Yantai, 2012: 1573-1576. 8 CHEN Min, LIU Chen, and WANG Fuyan. Context quantization under the minimum increment of the adap

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 研究报告 > 论证报告

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁