EM算法及其推广解析.pptx

上传人:莉*** 文档编号:73649162 上传时间:2023-02-21 格式:PPTX 页数:26 大小:535.01KB
返回 下载 相关 举报
EM算法及其推广解析.pptx_第1页
第1页 / 共26页
EM算法及其推广解析.pptx_第2页
第2页 / 共26页
点击查看更多>>
资源描述

《EM算法及其推广解析.pptx》由会员分享,可在线阅读,更多相关《EM算法及其推广解析.pptx(26页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、EM算法是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法(ExpectationMaximization),简称EM算法。第1页/共26页极大似然估计极大似然估计是概率论在统计学中的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次实验,观察其结果,利用结果推出参数的大概值。第2页/共26页 极大似然估计似然函数:已知样本集X,X是通过概率密度p(x|)抽取。样本集X中

2、各个样本的联合概率:为了便于分析,由于L()是连乘的,还可以定义对数似然函数,将其变成连加的:第3页/共26页 极大似然估计求极值可以转换为以下方程:的极大似然估计量表示为:第4页/共26页9.1EM算法的引入9.1.1EM算法9.1.2EM算法的导出9.1.3EM算法在非监督学习中的应用9.2EM算法的收敛性第5页/共26页9.1.1 EM算法例9.1(三硬币模型)假设有3枚硬币,分别记作A,B,C.这些硬币正面出现的概率分别是,p,q.进行如下掷硬币试验:先掷硬币A,根据其结果选出硬币B或硬币C,正面选硬币B,反面选硬币C;然后掷选出的硬币,掷硬币的结果,出现正面记作1,出现反面记作0;独

3、立地重复n次试验(这里,n=10),观测结果如下:1,1,0,1,0,0,1,0,1,1假设只能观测到掷硬币的结果,不能观测掷硬币的过程。问如何估计三硬币正面出现的概率,即三硬币模型的参数。第6页/共26页解三硬币模型可以写作y:观测变量,表示一次试验观测的结果是1或0z:隐变量,表示未观测到的掷硬币A的结果:=(,p,q)是模型参数第7页/共26页将观测数据表示为Y=(Y1,Y2,Yn)T,未观测数据表示为Z=(Z1,Z2,Zn)T,则观测数据的似然函数为即考虑求模型参数=(,p,q)的极大似然估计,即第8页/共26页EM算法首先选取参数的初值,记作,然后通过下面的步骤迭代计算参数的估计值,

4、直至收敛为止。第i次迭代参数的估计值为。EM算法的第i+1次迭代如下E步:计算在模型参数下观测数据yj来自掷硬币B的概率那么观测数据yj来自硬币C的概率为1-(i+1)第9页/共26页M步:先写出期望然后分别求导,计算模型参数的新估计值第10页/共26页假设模型参数的初值取为由E步公式对yj=1与yj=0均有j(1)=0.5利用M步迭代公式,得到继续计算j(2)=0.5,j=1,2,10继续迭代,得于是得到模型参数的极大似然估计:EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值。如果取初值那么得到的模型参数的极大似然估计是第11页/共26页算法9.1(EM算法)输入:观测变量数

5、据Y,隐变量数据Z,联合概率分布P(Y,Z|),条件概率分布P(Z,Y|);输出:模型参数.(1)选择参数的初值,开始迭代,参数的初值可以任意选择,但需注意EM算法对初值是敏感的;(2)E步:记为第i次迭代参数的估计值,在第i+1次迭代得E步,计算这里,是在给定观测数据Y和当前的参数估计下隐变量数据Z的条件概率分布.注意,的第一个变元表示要极大化的参数,第2个变元表示参数的当前估计值.每次迭代实际在求Q函数及其极大;第12页/共26页(3)M步:求使极大化的,确定i+1次迭代得参数的估计值(4)重复第(2)步和第(3)步,直到收敛,这里给出停止迭代得条件,一般是对较小的正数,若满足则停止迭代.

6、第13页/共26页定义9.1(Q函数)完全数据(观测变量数据Y和隐变量数据Z)的对数似然函数关于在给定观测数据Y和当前参数下对未观测数据Z的条件概率分布的期望称为Q函数,即第14页/共26页9.1.2 EM算法的导出琴生(Jensen)不等式如果f是凸函数,X是随机变量,那么Ef(X)f(EX)特别地,如果f是严格凸函数,Ef(X)f(EX)那么当且仅当p(x=EX)=1,也就是说X是常量。这里我们将f(EX)简写为f(EX)Jensen不等式应用于凹函数时,不等号方向反向,也就是Ef(X)f(EX)第15页/共26页下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清

7、楚地看出EM算法的作用。假设在第i次迭代后的估计值是.我们希望新估计值能使L()增加,即L()L(),并逐步达到极大值.为此,考虑两者的差:第16页/共26页利用Jensen不等式得到其下界:令则 第17页/共26页任何可以使增大的,也可以使L()增大.为了使L()有尽可能大的增长,选择使达到极大,即现在求的表达式.省去对的极大化而言是常数的项,有上式等价于EM算法的一次迭代,即求Q函数及其极大化.EM算法是通过不断求解下界的极大化逼近求解对数似然函数极大化的算法.第18页/共26页第19页/共26页9.1.3 EM算法在非监督学习中的应用l有时训练数据只有输入没有对应的输出(x1,),(x2

8、,),(xn,),从这样的数据学习模型称为非监督学习问题lEM算法可以用于生产模型的非监督学习l生成模型由联合概率分布P(X,Y)表示,可以认为非监督学习训练数据是联合概率分布产生的数据.X为观测数据,Y为未观测数据.第20页/共26页9.2 EM算法的收敛性定理9.1设P(Y|)为观测数据的似然函数,(i=1,2,)为EM算法得到的参数估计序列,则(i=1,2,)为对应的似然函数序列,则是单调递增的,即第21页/共26页证明由于取对数有由令于是对数似然函数可以写成第22页/共26页只需证明右端为非负值即得出结果,由于使达到极大,所以有其第二项,由得出第23页/共26页定理9.2设L()=lo

9、gP(Y|)为观测数据的对数似然函数,(i=1,2,)为EM算法得到的参数估计序列,(i=1,2,)为对应的对数似然函数序列.(1)如果P(Y|)有上界,则收敛到某一值L*;(2)在函数与L()满足一定条件下,由EM算法得到的参数估计序列的收敛值*是L()的稳定点。定理9.2关于函数与L()的条件在大多数情况下都是满足的.第24页/共26页lEM算法的收敛性包含关于对数似然函数序列的收敛性和关于参数估计序列的收敛性两层意思,前者并不蕴含后者。l定理只能保证参数估计序列收敛到对数似然函数序列的稳定点,不能保证收敛到极大值点。l在实际应用中,初值的选择非常重要,常用的办法是选取几个不同的初值进行迭代,然后对得到的各个估计值加以比较,从中选择最好的。第25页/共26页感谢您的欣赏!第26页/共26页

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 应用文书 > PPT文档

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁