数据挖掘技术十课Bayes分类方法.ppt

上传人:豆**** 文档编号:77632468 上传时间:2023-03-15 格式:PPT 页数:39 大小:725.50KB
返回 下载 相关 举报
数据挖掘技术十课Bayes分类方法.ppt_第1页
第1页 / 共39页
数据挖掘技术十课Bayes分类方法.ppt_第2页
第2页 / 共39页
点击查看更多>>
资源描述

《数据挖掘技术十课Bayes分类方法.ppt》由会员分享,可在线阅读,更多相关《数据挖掘技术十课Bayes分类方法.ppt(39页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、数据挖掘技术十课Bayes分类方法 Still waters run deep.流静水深流静水深,人静心深人静心深 Where there is life,there is hope。有生命必有希望。有生命必有希望主要内容主要内容u朴素朴素Bayes分类分类uBayes网络网络u集成方法集成方法Bayes分类器分类器u一个用于解决分类问题的概率框架u条件概率:u Bayes定理:Bayes定理举例定理举例u给定:50%的脑膜炎患者脖子僵硬人得脑膜炎的概率是1/50,000脖子僵硬的人的概率是 1/20u若某个患者脖子僵硬,则他患脑膜炎的概率是多少?Bayes分类器分类器u将每个属性及类别标记视

2、为随机变量u给定一个具有属性集合(A1,A2,An)的记录目标是预测类别属性C具体而言,要寻找使得P(C|A1,A2,An)最大的类别CBayes分类器分类器u方法:利用Bayes定理计算所有类别C的后验概率P(C|A1,A2,An)选择使如下概率值最大的类别C P(C|A1,A2,An)等价于使如下概率值最大 P(A1,A2,An|C)P(C)朴素朴素Bayes分类器分类器u假定给定类别的条件下属性Ai之间是独立的:P(A1,A2,An|C)=P(A1|Cj)P(A2|Cj)P(An|Cj)可以从Ai和Cj中估算出P(Ai|Cj)类别为使P(Cj)P(Ai|Cj)最大的类Cj如何从数据中估算

3、概率如何从数据中估算概率u类:P(C)=Nc/Ne.g.,P(No)=7/10,P(Yes)=3/10u对离散属性k:P(Ai|Ck)=|Aik|/Nc 其中|Aik|是属于类Ck,并具有属性值Ai的记录数量如:P(Status=Married|No)=4/7P(Refund=Yes|Yes)=0如何从数据中估算概率如何从数据中估算概率u对连续属性:将区间离散化至不同的桶 违背了独立性假设2路分割:(A P(X|Yes)P(Yes)Therefore P(No|X)P(Yes|X)=Class=No给定一条测试记录:朴素朴素Bayes分类举例分类举例A:attributesM:mammalsN

4、:non-mammalsP(A|M)P(M)P(A|N)P(N)=Mammals朴素朴素Bayes分类器小结分类器小结u抗噪声能力强u在概率估算阶段,通过忽略整条记录来处理缺失值u抗无关属性的能力强u属性独立的假设可能对某些属性不成立可以使用Bayes信度网络(Bayesian Belief Networks,BBN)主要内容主要内容u朴素朴素Bayes分类分类uBayes网络网络u集成方法集成方法Bayes网络网络u20世纪80年代,Bayes网络(Bayes Network)成功应用于专家系统,成为表示不确定性专家知识和推理的一种流行的方法。在不确定性表示、可信度计算上还是使用概率方法。实

5、现时,要根据应用背景采用近似计算方法。事件的独立性事件的独立性u独立:如果X与Y相互独立,则 P(X,Y)=P(X)P(Y)P(X|Y)=P(X)u条件独立:如果在给定Z的条件下,X与Y相互独立,则 P(X|Y,Z)=P(X|Z)u实际中,条件独立比完全独立更普遍联合概率联合概率u联合概率:P(X1,X2,XN)u如果相互独立:P(X1,X2,XN)=P(X1)P(X2)P(XN)u条件概率:P(X1,X2,XN)=P(X1|X2,XN)P(X2,XN)u迭代表示:P(X1,X2,XN)=P(X1)P(X2|X1)P(X3|X2X1)P(XN|XN-1,X1)=P(XN)P(XN-1|XN)P

6、(XN-2|XN-1XN)P(X1|X2,XN)u实际应用中就是利用条件独立来简化网络。Bayes网络网络u一系列变量的联合概率分布的图形表示。u一个表示变量之间相互依赖关系的数据结构,图论与概率论的结合。Bayes网络(续)网络(续)u两部分结构图,有向无环图(Directed Acyclic Graph,DAG),每个节点代表相应的变量。条件概率表(Conditional Probability Table,CPT),一系列的概率值,表示局部条件概率分布,即P(node|parents)。Bayes网络的构造网络的构造u选择变量,生成节点u从左至右(从上到下),排列节点u填充网络连接弧,表

7、示节点之间的关系u得到条件概率关系表u条件概率表示的概率网络有时叫“Belief Nets”由由Bayes网络计算概率网络计算概率u简单的联合概率可以直接从网络关系上得到,如:uP(X,Y,Z)=P(X)P(Y)P(Z|X,Y)XZYP(X)P(Z|Y,X)P(Y)Bayes网络举例网络举例假设:命题S(Smoker):该患者是一个吸烟者 命题C(Coal Miner):该患者是一个煤矿矿井工人 命题L(Lung Cancer):他患了肺癌 命题E(Emphysema):他患了肺气肿u已知:S对L和E有因果影响,C对E也有因果影响。u命题间的关系可以描绘成Bayes网络。每个节点代表一个证据每

8、一条弧代表一条规则(假设)弧表达了由规则给出的、节点间的直接因果关系。Bayes网络举例网络举例uCPT表为:P(S)=0.4 P(C)=0.3 P(E|S,C)=0.9 P(E|S,C)=0.3 P(E|S,C)=0.5 P(E|S,C)=0.1 SCELP(S)=0.4 P(C)=0.3P(E|S,C)=0.9Bayes网络举例(续)网络举例(续)u上图例中的联合概率密度为u变量与它在图中的非继承节点在是概率独立的。P(E|S,C,L)P(E|S,C)(E与L在S条件下独立)P(L|S,C)=P(L|S)(L与C在S,E条件下独立)P(C|S)=P(C)(C与S在E条件下独立)u简化后的联

9、合概率密度为:Bayes网络的推理网络的推理u主要用于因果推理和诊断推理由因导果,P(肺癌|吸烟)执果索因,P(吸烟|肺癌)u一般情况下是很困难的,原因不是所有的CPT表都能够得到网络结构大且复杂,NP-hard问题Bayes网络的因果推理网络的因果推理u已知父节点,计算子节点的条件概率。u主要操作:重新表达所求的条件概率。直到所有的概率值可从CPT中得到,推理完成。因果推理举例因果推理举例u给定患者是一个吸烟者(S),计算他患肺气肿(E)的概率P(E|S)。首先,引入E的另一个父节点(C),P(E|S)=P(E,C|S)+P(E,C|S)右边的第一项,P(E,C|S)P(E,C,S)/P(S

10、)P(E|C,S)*P(C,S)/P(S)P(E|C,S)*P(C)同理可得右边的第二项为:P(E,C|S)=P(E|C,S)*P(C)。由此可得:P(E|S)=P(E|C,S)*P(C)+P(E|C,S)*P(C)P(C)=1 P(C),则有:P(E|S)0.9*0.3+0.3*(1-0.3)=0.48Bayes网络的诊断推理网络的诊断推理u在Bayes网中,从一个子节点出发计算父节点的条件概率,即从结果推测起因。u主要操作:使用Bayes公式把诊断推理转换成因果推理。诊断推理举例诊断推理举例计算在不得肺气肿的人中,不是矿工的概率,即P(C|E)。P(C|E)=P(E|C)*P(C)/P(E

11、)由因果推理可知:P(E|C)=P(E,S|C)+P(E,S|C)=P(E|S,C)P(S)+P(E|S,C)P(S)=(10.3)*0.4+(10.1)*(10.4)=0.82由此得:P(C|E)=P(E|C)*P(C)/P(E)=0.82*(10.3)/P(E)=0.574/P(E)同样,P(C|E)=P(E|C)*P(C)/P(E)=0.102/P(E)由于全概率公式,P(C|E)+P(C|E)=1代入得,P(E)=0.676所以,P(C|E)=0.849Bayes方法预测方法预测2010世界杯世界杯World Cup Group C England beating Argentinah

12、ttp:/ u给定S个样本。u在S中做有替代的抽样,其结果记为T,S中原来的样本在T中可出现多次,也可一次都不出现。u重复这种抽样,得到k个独立的训练集。u使用同样的算法在这些训练集上构建k个分类器C1,C2,Ck。u对一个待分类样本i,每个分类器都独立对其进行分类。u样本i的类别标记为大多数分类器给出的类别。Boosting:核心思想核心思想u弱分类器:每个分类器的正确率都不高。uBoosting:顺序将弱分类器应用于不断修改的训练数据。u最终也是采用投票,类别取多数的原则。u最初,所有数据的权重都相等。u每次使用一个分类器对数据进行分类后,都相应修改数据的权重。在使用第m个分类器Cm对数据进行分类时,被Cm-1分错的数据的权重增加,分对的数据的权重降低。u每个分类器都关注于被前面的分类器所分错的数据。Bagging与与Boosting训练集的选择预测/分类函数的权重预测/分类函数的生成Bagging随机的,各轮训练集间相互独立无权重并行生成Boosting训练集不独立,各轮训练集的选择与前面的结果有关有权重顺序生成

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 小学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁