【教学课件】第1章熵和互信息量.ppt

上传人:wuy****n92 文档编号:69866566 上传时间:2023-01-10 格式:PPT 页数:83 大小:535KB
返回 下载 相关 举报
【教学课件】第1章熵和互信息量.ppt_第1页
第1页 / 共83页
【教学课件】第1章熵和互信息量.ppt_第2页
第2页 / 共83页
点击查看更多>>
资源描述

《【教学课件】第1章熵和互信息量.ppt》由会员分享,可在线阅读,更多相关《【教学课件】第1章熵和互信息量.ppt(83页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、第第1 1章章 熵和互信息量熵和互信息量u本章介绍本章介绍信源的统计特性和数学模型信源的统计特性和数学模型各类信源的信息测度各类信源的信息测度-熵及其性质熵及其性质引入信息理论的一些基本概念和重要结论引入信息理论的一些基本概念和重要结论n通信系统模型:通信系统模型:n对信息论的学习可从信源开始对信息论的学习可从信源开始n消息是信息的载荷者。信息是抽象的,消息是消息是信息的载荷者。信息是抽象的,消息是具体的。要研究信息,还得从研究消息入手。具体的。要研究信息,还得从研究消息入手。n由于信源发送什么消息预先是不可知的,只能由于信源发送什么消息预先是不可知的,只能用概率空间来描述信源用概率空间来描述

2、信源1.1 1.1 信源的数学模型及分类信源的数学模型及分类n单符号信源单符号信源:输出是单个符号(代码)的消息输出是单个符号(代码)的消息n离散信源离散信源n连续信源连续信源n平稳随机序列信源平稳随机序列信源:信源输出的消息由一系列符号序列信源输出的消息由一系列符号序列所组成,可用所组成,可用N维随机矢量维随机矢量 X(X1,X2,XN)描述,且随机描述,且随机矢量矢量X X 的各维概率分布都与时间起点无关的各维概率分布都与时间起点无关-平稳!平稳!n离散平稳信源离散平稳信源n连续平稳信源连续平稳信源n无记忆(独立)离散平稳信源无记忆(独立)离散平稳信源n有记忆信源有记忆信源nm阶马尔可夫信

3、源阶马尔可夫信源n随机波形信源随机波形信源离散信源离散信源(单符号单符号)n特点特点:输出是单个符号(代码)的消息,符号集输出是单个符号(代码)的消息,符号集的取值的取值A:a1,a2,aq是有限的或可数的,可用是有限的或可数的,可用一维离散型随机变量一维离散型随机变量X来描述。来描述。n例:例:投硬币、书信、电报符号等等。投硬币、书信、电报符号等等。n数学模型数学模型:设每个信源符号设每个信源符号ai出现的出现的(先验先验)概率概率 p(ai)(i=1,2,q)满足:满足:概率空间概率空间能表征离散信源的统计特性,因此也称概率能表征离散信源的统计特性,因此也称概率空间为信源空间。空间为信源空

4、间。连续信源连续信源n特点特点:输出是单个符号(代码)的消息,:输出是单个符号(代码)的消息,输出消输出消息的符号集息的符号集A的取值是连续的,可用一维的连的取值是连续的,可用一维的连续型随机变量续型随机变量X 来描述。来描述。n例:语音信号、热噪声信号、遥控系统中有关电压、例:语音信号、热噪声信号、遥控系统中有关电压、温度、压力等测得的连续数据等等。温度、压力等测得的连续数据等等。n数学模型数学模型:连续型的概率空间。即:连续型的概率空间。即:或或或或满足满足满足满足 或或或或 1.2 1.2 离散信源的信息熵及其性质离散信源的信息熵及其性质 n基本的离散信源可用一维随机变量基本的离散信源可

5、用一维随机变量X来描来描述信源的输出,信源的数学模型可抽象述信源的输出,信源的数学模型可抽象为为:问题问题问题问题:这样的信源能输出多少信息:这样的信源能输出多少信息:这样的信源能输出多少信息:这样的信源能输出多少信息?每个消息的出现携带多少信息量每个消息的出现携带多少信息量每个消息的出现携带多少信息量每个消息的出现携带多少信息量?信息的度量信息的度量n考虑:考虑:n信息的度量(信息量)和不确定性消除的程度信息的度量(信息量)和不确定性消除的程度有关,消除的不确定性获得的信息量;有关,消除的不确定性获得的信息量;n不确定性就是随机性,可以用概率论和随机过不确定性就是随机性,可以用概率论和随机过

6、程来测度,概率小程来测度,概率小不确定性大;不确定性大;n推论:推论:n概率小概率小 信息量大,即信息量是概率的单调信息量大,即信息量是概率的单调递减函数;递减函数;n信息量应该具有可加性;信息量应该具有可加性;信息量的推导信息量的推导n某事件发生所含有的信息量应该是该事件发生的先验概率某事件发生所含有的信息量应该是该事件发生的先验概率的函数。即:的函数。即:I(ai)f p(ai)n根据客观事实和人们的习惯概念,函数根据客观事实和人们的习惯概念,函数 f p(ai)应满足以应满足以下条件:下条件:(1)它应是先验概率)它应是先验概率p(ai)的单调递减函数,即当的单调递减函数,即当 p(a1

7、)p(a2)时,有时,有 f p(a1)1r1)熵的计算熵的计算例例:有一布袋内放有一布袋内放l00个球,其中个球,其中80个球是红色的,个球是红色的,20个球是白色的。随便摸出一个球,猜测是什么颜个球是白色的。随便摸出一个球,猜测是什么颜色,那么其概率空间为:色,那么其概率空间为:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:I(a1)log p(a1)log0.8=0.32 (比特)(比特)(比特)(比特)如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出

8、来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:I(a2)log p(a2)log0.2=2.32 (比特)(比特)(比特)(比特)平均摸取一次所能获得的信息量为平均摸取一次所能获得的信息量为平均摸取一次所能获得的信息量为平均摸取一次所能获得的信息量为 :H(X)=p(a1)I(a1)+p(a2)I(a2)=0.72(比特(比特(比特(比特/符号)符号)符号)符号)熵的含义熵的含义n熵是熵是从整个集合的统计特性从整个集合的统计特性来考虑的,它从平均意义上来来考虑的,它从平均意义上来表征信源的总体特征。表征信源的总体特征。n

9、在信源输出后,信息熵在信源输出后,信息熵H(X)表示每个消息提供的平均信表示每个消息提供的平均信息量;息量;n在信源输出前,信息熵在信源输出前,信息熵H(X)表示信源的平均不确定性;表示信源的平均不确定性;n信息熵信息熵H(X)表征了变量表征了变量X的随机性。的随机性。n n例如例如例如例如,有两信源有两信源有两信源有两信源X X、Y Y,其概率空间分别其概率空间分别其概率空间分别其概率空间分别计算其熵,计算其熵,得:得:得:得:H(X)=0.08H(X)=0.08(bit/bit/符号)符号)符号)符号)H(Y)=1 H(Y)=1(bit/bit/符号)符号)符号)符号)H(Y)H(X),因

10、此信源,因此信源Y比信源比信源X的平均不确定性要大。的平均不确定性要大。例例 设甲地的天气预报为:晴设甲地的天气预报为:晴(占占48)、阴、阴(占占28)、大雨、大雨(占占18)、小雨、小雨(占占18)。又设乙地的天气预报为:晴。又设乙地的天气预报为:晴(占占78),小雨,小雨(占占18)。试求两地天气预报各自提供的平均信息。试求两地天气预报各自提供的平均信息量。若甲地天气预报为两极端情况,一种是晴出现概率为量。若甲地天气预报为两极端情况,一种是晴出现概率为1而而其余为其余为0。另一种是晴、阴、小雨、大雨出现的概率都相等为。另一种是晴、阴、小雨、大雨出现的概率都相等为14。试求这两极端情况所提

11、供的平均信息量。又试求乙地出。试求这两极端情况所提供的平均信息量。又试求乙地出现这两极端情况所提供的平均信息量。现这两极端情况所提供的平均信息量。两个信源两个信源解:甲地天气预报构成的信源空间为解:甲地天气预报构成的信源空间为:则其提供的平均信息量即信源的信息熵则其提供的平均信息量即信源的信息熵则其提供的平均信息量即信源的信息熵则其提供的平均信息量即信源的信息熵:乙地天气预报的信源空间为乙地天气预报的信源空间为:n n结论结论结论结论:甲地:甲地:甲地:甲地天气预报天气预报提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地提供的平均信息量大于

12、乙地,因为乙地比甲地的平均不确定性小。比甲地的平均不确定性小。比甲地的平均不确定性小。比甲地的平均不确定性小。甲地极端情况n极端情况极端情况1:晴天概率:晴天概率1n 结论结论:等概率分布等概率分布时信源的不确定性最大,时信源的不确定性最大,所以所以信息熵信息熵(平均信息量)平均信息量)最大最大。n极端情况极端情况2:各种天气等概率分布:各种天气等概率分布乙地极端情况n极端情况极端情况1:晴天概率:晴天概率1n 结论结论:在极端情况:在极端情况2下,甲地比乙地提供更多的信息量。下,甲地比乙地提供更多的信息量。因为,甲地可能出现的消息数比乙地可能出现的消息数多。因为,甲地可能出现的消息数比乙地可

13、能出现的消息数多。n极端情况极端情况2:各种天气等概率分布:各种天气等概率分布n信息熵是信源概率空间的一种特殊信息熵是信源概率空间的一种特殊矩函数矩函数。这个矩函。这个矩函数的大小,与信源的符号数及其概率分布有关。数的大小,与信源的符号数及其概率分布有关。n我们用我们用概概率矢量率矢量P来表示概率分布来表示概率分布P(x):三、信息熵的基本性质三、信息熵的基本性质 这样,信息熵这样,信息熵这样,信息熵这样,信息熵H(H(X X)是概率矢量是概率矢量是概率矢量是概率矢量P P或它的分量或它的分量或它的分量或它的分量p p1 1,p p2 2,p pq q的的的的q-1q-1元函数元函数元函数元函

14、数(因各分量满足上述条件限制,所以独立变量因各分量满足上述条件限制,所以独立变量因各分量满足上述条件限制,所以独立变量因各分量满足上述条件限制,所以独立变量只有只有只有只有q-1q-1元元元元)。一般一般一般一般 H(H(X)X)可写成:可写成:可写成:可写成:熵函数熵函数nH(P)是概率矢量是概率矢量P的函数,称为熵函数。的函数,称为熵函数。n用下述表示方法:用下述表示方法:n用用H(x)表示以离散随机变量表示以离散随机变量x描述的描述的信源的信息熵信源的信息熵;n用用H(P)或或 H(p1,p2,pq)表示概率矢量为表示概率矢量为P=(p1,p2,pq)的的q个符号信源的信息熵个符号信源的

15、信息熵。n若当若当 q=2 时,因为时,因为 p1+p2=1,所以将两个符号的熵所以将两个符号的熵函数写成函数写成H(p1)或或H(p2)。n熵函数熵函数H(P)是一种特殊函数,具有以下性质。是一种特殊函数,具有以下性质。性质:性质:1、对称性、对称性:H(P)的取值与分量的取值与分量 p1,p2 ,pq的顺序无关。的顺序无关。n说明:说明:从数学角度:从数学角度:H(P)=pi log pi 中的和式满足交换率;中的和式满足交换率;从随机变量的角度:熵只与随机变量的总体统计特性有关。从随机变量的角度:熵只与随机变量的总体统计特性有关。n例例2、确定性、确定性:H(1,0)=H(1,0,0)=

16、H(1,0,0,0)=0n性质说明性质说明:从总体来看,信源虽然有不同的输出符号,:从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号则是几但它只有一个符号几乎必然出现,而其它符号则是几乎不可能出现,那么,这个信源是一个确知信源,其乎不可能出现,那么,这个信源是一个确知信源,其熵等于零。熵等于零。3、非负性、非负性:H(P)0n说明说明:n n随机变量随机变量随机变量随机变量X X的概率分布满足的概率分布满足的概率分布满足的概率分布满足0 0p pi i1 1,当取对数的底大,当取对数的底大,当取对数的底大,当取对数的底大于于于于1 1时,时,时,时,log(log

17、(p pi i)0 0,-p pi ilog(log(p pi i)0 0,即得到的熵为正,即得到的熵为正,即得到的熵为正,即得到的熵为正值。只有当随机变量是一确知量时熵才等于零。值。只有当随机变量是一确知量时熵才等于零。值。只有当随机变量是一确知量时熵才等于零。值。只有当随机变量是一确知量时熵才等于零。n n这种非负性合适于离散信源的熵,对连续信源来说这一这种非负性合适于离散信源的熵,对连续信源来说这一这种非负性合适于离散信源的熵,对连续信源来说这一这种非负性合适于离散信源的熵,对连续信源来说这一性质并不存在。以后可看到在相对熵的概念下,可能出性质并不存在。以后可看到在相对熵的概念下,可能出

18、性质并不存在。以后可看到在相对熵的概念下,可能出性质并不存在。以后可看到在相对熵的概念下,可能出现负值。现负值。现负值。现负值。vv 非负性体现信息是非负的。非负性体现信息是非负的。非负性体现信息是非负的。非负性体现信息是非负的。4、扩展性、扩展性n性质说明:性质说明:信源的取值数增多时,若这些取值对应的概率信源的取值数增多时,若这些取值对应的概率很小很小(接近于零接近于零),则信源的熵不变。,则信源的熵不变。所以,上式成立所以,上式成立因为因为5 5、可加性、可加性 统计独立统计独立信源信源X和和Y的的联合信源的熵联合信源的熵等于信源等于信源X和和Y各自的熵之和。各自的熵之和。H(XY)=H

19、(X)+H(Y)l可加性是熵函数的一个重要特性,正因具有可加性,可加性是熵函数的一个重要特性,正因具有可加性,才使熵函数的形式是唯一的。才使熵函数的形式是唯一的。证明:证明:证明:证明:例如,甲信源为例如,甲信源为例如,甲信源为例如,甲信源为它们的联合信源是它们的联合信源是可计算得联合信源的联合熵:可计算得联合信源的联合熵:H(Z)=H(XY)=log(nm)=log m+log n=H(X)+H(Y)乙信源为乙信源为乙信源为乙信源为6 6、强可加性、强可加性n两个互相关联的信源两个互相关联的信源X和和Y的联合信源的熵等于信的联合信源的熵等于信源源X的熵加上在的熵加上在X已知条件下信源已知条件

20、下信源Y的条件熵。的条件熵。H(XY)=H(X)+H(Y/X)nH(Y/X)表示信源)表示信源 X 输出一符号的条件下,输出一符号的条件下,信源信源Y再输出一符号所能提供的平均信息量,再输出一符号所能提供的平均信息量,称为称为条件熵条件熵。H(XY)=H(X)+H(Y/X)的证明:)的证明:H(XY)=H(X)+H(Y/X)7、递增性、递增性 若原信源若原信源 X 中中有一个符号分割成了有一个符号分割成了m个元素个元素(符符号号),这,这m个元素的概率之和等于原元素的概率,而个元素的概率之和等于原元素的概率,而其他符号的概率不变,则其他符号的概率不变,则新信源的熵增加新信源的熵增加。熵的增加量

21、等于由分割而产生的不确定性量。熵的增加量等于由分割而产生的不确定性量。证明可以从熵的定义或证明可以从熵的定义或强可加性强可加性得出:得出:因为因为因为因为而当而当而当而当inin时时时时p pij ij=0=0,所以,所以,所以,所以即得:即得:即得:即得:递增性的推广递增性的推广n它表示它表示n个元素的信源熵可以递推成个元素的信源熵可以递推成(n-1)个二元信个二元信源的熵函数的加权和。这样,可使源的熵函数的加权和。这样,可使多元信源的熵函多元信源的熵函数的计算简化成计算若干个二元信源的熵函数数的计算简化成计算若干个二元信源的熵函数。因。因此,熵函数的递增性又可称为递推性。此,熵函数的递增性

22、又可称为递推性。8、极值性、极值性(定理定理1.1)n在离散信源情况下,信源各符号在离散信源情况下,信源各符号等概率分布等概率分布时,时,熵值达到最大。熵值达到最大。n性质表明性质表明等概率分布信源的平均不确定性为最大。等概率分布信源的平均不确定性为最大。n这是一个很重要的结论,称为这是一个很重要的结论,称为最大离散熵定理。最大离散熵定理。证明证明:因为对数是因为对数是型凸函数,满足詹森不等式型凸函数,满足詹森不等式Elog Y log EY,则有:,则有:二进制信源是离散信源的一个特例。二进制信源是离散信源的一个特例。该信源符号只有二个,设为该信源符号只有二个,设为“0”和和“1”。符号。符

23、号输出的概率分别为输出的概率分别为“”和和“1-”,即信源的概率空,即信源的概率空间为:间为:H(X)=-log (1-)log(1-)=H()即信息熵即信息熵H(x)是是 的函数。的函数。取值于取值于0,1区间,可区间,可画出熵函数画出熵函数H()的曲线来,的曲线来,如右图所示。如右图所示。n熵函数熵函数H(P)是概率矢量是概率矢量P(p1,p2,pq)的的严格严格型凸函数型凸函数(或称上凸函数或称上凸函数)。n它表示:对任意概率矢量它表示:对任意概率矢量P1(p1,p2,pq)和和P2(p1,p2,pq),和任意的,和任意的 0 1,有:有:H P1十十(1-)P2 H(P1)十十(1-)

24、H(P2)n因为熵函数具有上凸性,所以熵函数具有极值,其因为熵函数具有上凸性,所以熵函数具有极值,其最大值存在。最大值存在。9 9、上凸性、上凸性、上凸性、上凸性n当离散平稳无记忆信源发出固定长度的消息序列当离散平稳无记忆信源发出固定长度的消息序列时,则得到原信源的时,则得到原信源的扩展信源扩展信源。n例如在电报系统中,若信源输出的是二个二元数例如在电报系统中,若信源输出的是二个二元数字组成的符号序列,此时可认为是一个新的信源,字组成的符号序列,此时可认为是一个新的信源,它由四个符号(它由四个符号(00,01,10,11)组成,我们)组成,我们把该信源称为把该信源称为二元无记忆信源的二次扩展信

25、源二元无记忆信源的二次扩展信源。n如果把如果把N个二元数字组成一组,则信源等效成一个二元数字组成一组,则信源等效成一个具有个具有2N个符号的新信源,把它称为个符号的新信源,把它称为二元无记信二元无记信源的源的N次扩展信源次扩展信源。1.3 1.3 离散无记忆信源的扩展信源离散无记忆信源的扩展信源n一般情况下,对一个离散无记忆信源一般情况下,对一个离散无记忆信源X,其样本,其样本空间为空间为a1,a2,aq,对它的输出,对它的输出消息序列消息序列,可用一组组长度为可用一组组长度为N的序列来表示它。这时,它的序列来表示它。这时,它等效成一个等效成一个新信源新信源。n新信源输出的新信源输出的符号符号

26、是是N维离散维离散随机矢量随机矢量X=(X1,X2,XN),其中每个分量,其中每个分量Xi(i1,2,N)都都是随机变量,它们都取值于同一信源符号集,并是随机变量,它们都取值于同一信源符号集,并且分量之间统计独立,则由随机矢量且分量之间统计独立,则由随机矢量X 组成的新组成的新信源称为信源称为离散无记忆信源离散无记忆信源X的的N次扩展信源。次扩展信源。单符号离散信源单符号离散信源X的数学模型:的数学模型:nN次扩展信源与单符号离散信源次扩展信源与单符号离散信源比较比较:数学模型相同但输出不:数学模型相同但输出不是单个符号,而是一串是单个符号,而是一串N个相互独立的符号序列:个相互独立的符号序列

27、:X(X1,X2,XN),联合分布密度,联合分布密度P(X)=P(X1X2XN)n把把 X 等效为一个新信源,称为等效为一个新信源,称为X的的N次扩展信源,其数学模型次扩展信源,其数学模型:因为是无记忆的因为是无记忆的因为是无记忆的因为是无记忆的(彼此统计独立彼此统计独立彼此统计独立彼此统计独立)则:则:则:则:离散平稳无记忆离散平稳无记忆N次扩展信源的熵次扩展信源的熵 H(X)=H(XN)=NH(X)其中其中:同理计算式中其余各项,得到:同理计算式中其余各项,得到:H(XN)=H(X)+H(X)+H(X)=N H(X)证:证:例例 求如下离散无记忆信源的二次扩展信源及其熵。求如下离散无记忆信

28、源的二次扩展信源及其熵。解解:二次扩展信源的概率空间为:二次扩展信源的概率空间为X2的信源符号123456789对应的符号序列a1 a1a1 a2a1 a3a2 a1a2 a2a2 a3a3 a1a3 a2a3 a3概率P(i)1/41/81/81/81/161/161/81/161/16一、离散平稳信源的数学定义一、离散平稳信源的数学定义n 在一般情况下在一般情况下,信源在,信源在 t=i 时刻将要发出什么样的符号决时刻将要发出什么样的符号决定于两方面:定于两方面:(1)信源在信源在 t=i 时刻随机变量时刻随机变量Xi 取值的概率分布取值的概率分布P(xi)。一般一般 P(xi)P(xj)

29、(2)t=i 时刻以前信源发出的符号。时刻以前信源发出的符号。即与条件概率即与条件概率P(xi/xi-1 xi-2)有关有关n对对平稳随机序列平稳随机序列,序列的统计性质与时间的推移无关,序列的统计性质与时间的推移无关,即信源发出符号序列的概率分布与时间起点无关。即信源发出符号序列的概率分布与时间起点无关。1.4 1.4 联合熵联合熵 n平稳随机序列的数学定义如下:平稳随机序列的数学定义如下:n若当若当t=i,t=j时时(i,j 是大于是大于1的任意整数的任意整数),P(xi)=P(xj)=P(x),则序列是一维平稳的。具有这样性质的信源称为,则序列是一维平稳的。具有这样性质的信源称为一维平稳

30、信源一维平稳信源。n除上述条件外,如果联合概率分布除上述条件外,如果联合概率分布P(xixi+1)也与时间起点无关,也与时间起点无关,即即P(xixi+1)=P(xjxj+1)(i,j为任意整数且为任意整数且i j),则信源称为,则信源称为二维平二维平稳信源稳信源。它表示任何时刻信源发出二个符号的联合概率分布也完。它表示任何时刻信源发出二个符号的联合概率分布也完全相等。全相等。n如果各维联合概率分布均与时间起点无关,那么,信源是完全平如果各维联合概率分布均与时间起点无关,那么,信源是完全平稳的。这种各维联合概率分布均与时间起点无关的完全平稳信源稳的。这种各维联合概率分布均与时间起点无关的完全平

31、稳信源称为称为离散平稳信源离散平稳信源。这时有:。这时有:P(xi)=P(xj)P(xi xi+1)=P(xj xj+1)P(xi xi+1 xi+N)=P(xj xj+1 xi+N)由于由于联合概率与条件概率联合概率与条件概率有以下关系:有以下关系:n结论:结论:对于平稳信源来说,其条件概率均与时间起点无关,对于平稳信源来说,其条件概率均与时间起点无关,只与关联长度只与关联长度N有关。有关。即平稳信源发出的平稳随机序列前即平稳信源发出的平稳随机序列前后的依赖关系与时间起点无关后的依赖关系与时间起点无关。从从平稳性平稳性可得:可得:n对平稳信源对平稳信源如果如果某时刻发出什么符号只与前面发某时

32、刻发出什么符号只与前面发出的出的N个符号有关个符号有关,那么,那么任何时刻任何时刻它们的依赖关它们的依赖关系都是一样的。即:系都是一样的。即:二、二维平稳信源及其信息熵二、二维平稳信源及其信息熵 最简单的平稳信源就是最简单的平稳信源就是二维平稳信源二维平稳信源。它。它满足一维和满足一维和二维概率分布与时间起点无关。二维概率分布与时间起点无关。同时已知:连续两个信源符号出现的联合概率分布为同时已知:连续两个信源符号出现的联合概率分布为同时已知:连续两个信源符号出现的联合概率分布为同时已知:连续两个信源符号出现的联合概率分布为P(ai aj)(i,j=1,q),且:,且:,且:,且:n设有一个离散

33、一维平稳信源,其概率空间为:设有一个离散一维平稳信源,其概率空间为:n对离散二维平稳信源的信息测度:对离散二维平稳信源的信息测度:n由由于于只只有有两两个个符符号号有有关关联联,且且其其关关联联与与时时间间无无关关,则则我我们们可可把把这这个个信信源源输输出出的的随随机机序序列列分分成成每每二二个个符符号号一一组组(因因为为相相邻邻的的两两个个符符号号才才有有关关联联),每每组组构构成成新新信信源源的的一一个个符符号号,并并假假设设组组与与组组之之间间统统计计无无关关(实实际际上上,组组尾尾的的符符号号与与下下一一组组组组头的符号是有关的头的符号是有关的)。n这这时时,等等效效成成一一个个新新

34、的的信信源源X1X2,它它们们的的联联合合概概率率空空间间为:为:根据信息熵的定义,得:根据信息熵的定义,得:根据信息熵的定义,得:根据信息熵的定义,得:H(XH(X1 1X X2 2)称为称为称为称为X X1 1X X2 2的联合熵的联合熵的联合熵的联合熵。关于关于离散二维平稳信源联合熵离散二维平稳信源联合熵nH(X1X2)表示原来信源表示原来信源X输出任意一对消息输出任意一对消息的共熵,即的共熵,即描述信源描述信源X输出长度为输出长度为2的序列的序列的平均不确定性的平均不确定性(或所含有的信息量)。(或所含有的信息量)。n可用可用H(X1X2)/2作为作为信源信源X的信息熵的的信息熵的近似

35、近似值值。从另一角度(从另一角度(从另一角度(从另一角度(来研究信源来研究信源来研究信源来研究信源X X的信息熵的近似值):的信息熵的近似值):的信息熵的近似值):的信息熵的近似值):(1 1)由由由由于于于于信信信信源源源源X X发发发发出出出出的的的的符符符符号号号号序序序序列列列列中中中中前前前前后后后后两两两两个个个个符符符符号号号号之之之之间间间间有有有有依依依依赖赖赖赖性性性性,可可可可以以以以先先先先求求求求出出出出在在在在已已已已知知知知前前前前面面面面一一一一个个个个符符符符号号号号X Xl la ai i时时时时,信信信信源源源源输输输输出出出出下下下下一个符号一个符号一个

36、符号一个符号的平均不确定性:的平均不确定性:的平均不确定性:的平均不确定性:(2 2)前前前前面面面面一一一一个个个个符符符符号号号号X Xl l又又又又可可可可取取取取a ai i a a1 1,a a2 2,a aq q 中中中中任任任任一一一一个个个个,对对对对某某某某一一一一个个个个a ai i存存存存在在在在一一一一个个个个平平平平均均均均不不不不确确确确定定定定性性性性H(XH(X2 2/X/X1 1a ai i),那那那那么么么么对对对对所所所所有有有有a ai i的的的的可可可可能能能能值值值值进进进进行行行行统统统统计计计计平平平平均均均均就就就就得得得得当当当当前前前前面面

37、面面一一一一个个个个符符符符号号号号巳巳巳巳知知知知时时时时,再再再再输出下一个符号的总的平均不确定性输出下一个符号的总的平均不确定性输出下一个符号的总的平均不确定性输出下一个符号的总的平均不确定性H(XH(X2 2/X/X1 1):(3 3)根据概率关系,可以得到)根据概率关系,可以得到)根据概率关系,可以得到)根据概率关系,可以得到联合熵与条件熵联合熵与条件熵联合熵与条件熵联合熵与条件熵的关系:的关系:的关系:的关系:即:即:即:即:H(XH(X1 1X X2 2)H(XH(X1 1)+H(X)+H(X2 2/X/X1 1)而而而而 H(XH(X2 2/X/X1 1)H(XH(X2 2)因

38、此因此因此因此 H(XH(X1 1X X2 2)H(XH(X1 1)+H(X)+H(X2 2/X/X1 1)H(XH(X1 1)+H(X)+H(X2 2)=2H(X)=2H(X)所所所所以以以以,一一一一般般般般情情情情况况况况下下下下,输输输输出出出出二二二二个个个个符符符符号号号号的的的的联联联联合合合合熵熵熵熵总总总总是是是是小小小小于于于于二二二二倍倍倍倍信源的熵。信源的熵。信源的熵。信源的熵。例例例例 某一离散二维平稳信源某一离散二维平稳信源某一离散二维平稳信源某一离散二维平稳信源其其其其发发发发出出出出的的的的符符符符号号号号只只只只与与与与前前前前一一一一个个个个符符符符号号号号

39、有有有有关关关关,即即即即可可可可用用用用联联联联合合合合概概概概率率率率P(aP(ai ia aj j)给出它们的关联程度,如下表所示给出它们的关联程度,如下表所示给出它们的关联程度,如下表所示给出它们的关联程度,如下表所示 求信源的熵求信源的熵求信源的熵求信源的熵H(X)H(X)、条件熵条件熵条件熵条件熵H(XH(X2 2/X/X1 1)和联合熵和联合熵和联合熵和联合熵H(XH(X1 1X X2 2)。P(aP(ai ia aj j)a aj ja ai i0 01 12 20 01/41/41/181/180 01 11/181/181/31/31/181/182 20 01/181/1

40、87/367/36 解解解解:根根根根据据据据概概概概率率率率关关关关系系系系可可可可计计计计算算算算得得得得条条条条件件件件概概概概率率率率P P(a aj j/a/ai i),计计计计算算算算结结结结果果果果列表如下:列表如下:列表如下:列表如下:a aj ja ai i0 01 12 20 09/119/111/81/80 01 12/112/113/43/42/92/92 20 01/81/87/97/9P(aP(ai ia aj j)a aj ja ai i0 01 12 20 01/41/41/181/180 01 11/181/181/31/31/181/182 20 01/18

41、1/187/367/36 得:得:得:得:一、条件熵(信道疑义度)信道输入信源X的熵 H(X)是在接收到输出Y以前,关于输入变量X的先验不确定性,称为先验熵。1.5 1.5 条件熵和互信息量条件熵和互信息量接受到bj后,关于X的不确定性为 后验熵在输出符号集Y范围内是个随机量,对后验熵在符号集Y中求数学期望,得条件熵-信道疑义度:这是接收到输出符号bj后关于X的后验熵。后验熵是当信道接收端接收到输出符号bj后,关于输入符号的信息测度。互信息量互信息量 I(xi;yj):收到消息:收到消息yj 后获得关于后获得关于xi的的信息量。信息量。即:互信息量表示先验的不确定性减去尚存的不确定性,这即:互

42、信息量表示先验的不确定性减去尚存的不确定性,这即:互信息量表示先验的不确定性减去尚存的不确定性,这即:互信息量表示先验的不确定性减去尚存的不确定性,这就是就是就是就是收信者获得的信息量收信者获得的信息量收信者获得的信息量收信者获得的信息量二、平均互信息平均互信息I(X;Y):I(xi;yj)的统计平均l它代表接收到符号集Y后平均每个符号获得的关于X的信息量,也表示了输入与输出两个随机变量之间的统计约束程度。关于平均互信息关于平均互信息I(X;Y)互信息互信息互信息互信息 I(I(x x;y y)代表收到某消息代表收到某消息代表收到某消息代表收到某消息y y后获得关于某事件后获得关于某事件后获得

43、关于某事件后获得关于某事件x x的的的的信息量。信息量。信息量。信息量。它可取正值,也可取负值。它可取正值,也可取负值。它可取正值,也可取负值。它可取正值,也可取负值。若互信息若互信息若互信息若互信息I(I(x x ;y y)0)=0=0。若若若若I(XI(X;Y)Y)=0=0,表示表示表示表示在信道输出端接收到输出符号在信道输出端接收到输出符号在信道输出端接收到输出符号在信道输出端接收到输出符号Y Y后不后不后不后不获得任何关于输入符号获得任何关于输入符号获得任何关于输入符号获得任何关于输入符号X X的信息量的信息量的信息量的信息量-全损信道全损信道全损信道全损信道。I(X;Y)=H(X)-

44、H(X|Y)I(X;Y)=H(X)-H(X|Y)I(X;Y)=H(Y)-H(Y|X)I(X;Y)=H(Y)-H(Y|X)I(X;Y)=H(X)+H(Y)-H(XY)I(X;Y)=H(X)+H(Y)-H(XY)其中:其中:其中:其中:平均互信息与各类熵的关系平均互信息与各类熵之间关系的集合图平均互信息与各类熵之间关系的集合图平均互信息与各类熵之间关系的集合图平均互信息与各类熵之间关系的集合图(维拉图维拉图维拉图维拉图)表示:表示:表示:表示:H(X|Y)=H(X)-I(XH(X|Y)=H(X)-I(X;Y)Y)H(Y|X)=H(Y)-I(X H(Y|X)=H(Y)-I(X;Y)Y)H(XY)=H

45、(X)+H(Y)-I(X H(XY)=H(X)+H(Y)-I(X;Y)Y)H(X)H(Y)H(X/Y)H(Y/X)I(X;Y)I(X;Y)H(XY)H(XY)图中,左边的圆代表随机图中,左边的圆代表随机图中,左边的圆代表随机图中,左边的圆代表随机变量变量变量变量X X的熵,右边的圆代的熵,右边的圆代的熵,右边的圆代的熵,右边的圆代表随机变量表随机变量表随机变量表随机变量Y Y的熵,两个的熵,两个的熵,两个的熵,两个圆重叠部分是平均互信息圆重叠部分是平均互信息圆重叠部分是平均互信息圆重叠部分是平均互信息I I(X(X;Y)Y)。每个圆减去。每个圆减去。每个圆减去。每个圆减去I(XI(X;Y)Y)

46、后剩余的部分代表后剩余的部分代表后剩余的部分代表后剩余的部分代表两个疑义度。两个疑义度。两个疑义度。两个疑义度。n 两种特殊信道(1 1)离散无干扰信道)离散无干扰信道)离散无干扰信道)离散无干扰信道(无损信道无损信道无损信道无损信道)信道的输入和输出一一对应,信息无损失地传输,信道的输入和输出一一对应,信息无损失地传输,信道的输入和输出一一对应,信息无损失地传输,信道的输入和输出一一对应,信息无损失地传输,称为称为称为称为无损信道无损信道无损信道无损信道。H(X|Y)=H(Y|X)=0H(X|Y)=H(Y|X)=0 损失熵和噪声熵都为损失熵和噪声熵都为损失熵和噪声熵都为损失熵和噪声熵都为“0

47、”0”由于噪声熵等于零,因此,输出端接收的信息就等由于噪声熵等于零,因此,输出端接收的信息就等由于噪声熵等于零,因此,输出端接收的信息就等由于噪声熵等于零,因此,输出端接收的信息就等于平均互信息于平均互信息于平均互信息于平均互信息:I(X;Y)=H(X)=H(Y)I(X;Y)=H(X)=H(Y)(2 2)输入输出独立信道)输入输出独立信道)输入输出独立信道)输入输出独立信道(全损信道全损信道全损信道全损信道)信道输入端信道输入端信道输入端信道输入端X X与输出端与输出端与输出端与输出端Y Y完全统计独立完全统计独立完全统计独立完全统计独立 H(X|Y)=H(X),H(Y|X)=H(Y)H(X|

48、Y)=H(X),H(Y|X)=H(Y)所以所以所以所以 I(X;Y)=0 I(X;Y)=0 I(X;Y)=H(X)-H(X|Y)I(X;Y)=H(X)-H(X|Y)信道的输入和输出没有信道的输入和输出没有信道的输入和输出没有信道的输入和输出没有依赖依赖依赖依赖关系,信息无法传输,关系,信息无法传输,关系,信息无法传输,关系,信息无法传输,称为称为称为称为全损信道全损信道全损信道全损信道。接收到接收到接收到接收到Y Y后不可能消除有关输入端后不可能消除有关输入端后不可能消除有关输入端后不可能消除有关输入端X X的任何不确定性,的任何不确定性,的任何不确定性,的任何不确定性,所以获得的信息量等于零

49、。同样,也不能从所以获得的信息量等于零。同样,也不能从所以获得的信息量等于零。同样,也不能从所以获得的信息量等于零。同样,也不能从X X中获得任何中获得任何中获得任何中获得任何关于关于关于关于Y Y的信息量。的信息量。的信息量。的信息量。平均互信息平均互信息平均互信息平均互信息I(XI(X;Y)Y)等于零,表明了等于零,表明了等于零,表明了等于零,表明了信道两端随机变信道两端随机变信道两端随机变信道两端随机变量的统计约束程度等于零量的统计约束程度等于零量的统计约束程度等于零量的统计约束程度等于零。二种极限信道各类熵与平均互信息之间的关系二种极限信道各类熵与平均互信息之间的关系二种极限信道各类熵

50、与平均互信息之间的关系二种极限信道各类熵与平均互信息之间的关系 H(X|Y)=H(X)H(X|Y)=H(X)H(Y|X)=H(Y)H(Y|X)=H(Y)I(X;Y)=0 I(X;Y)=0H(X|Y)=H(Y|X)=0 H(X|Y)=H(Y|X)=0 I(X;Y)=H(X)=H(Y)I(X;Y)=H(X)=H(Y)无损信道:完全重迭无损信道:完全重迭无损信道:完全重迭无损信道:完全重迭全损信道:完全独立全损信道:完全独立全损信道:完全独立全损信道:完全独立无损信道:无损信道:无损信道:无损信道:全损信道:全损信道:全损信道:全损信道:平均互信息的性质平均互信息 I(X;Y)具有以下特性:(1)非

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 大学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁