人工智能之不确定知识表示及推理.pptx

上传人:茅**** 文档编号:87849813 上传时间:2023-04-18 格式:PPTX 页数:94 大小:765.75KB
返回 下载 相关 举报
人工智能之不确定知识表示及推理.pptx_第1页
第1页 / 共94页
人工智能之不确定知识表示及推理.pptx_第2页
第2页 / 共94页
点击查看更多>>
资源描述

《人工智能之不确定知识表示及推理.pptx》由会员分享,可在线阅读,更多相关《人工智能之不确定知识表示及推理.pptx(94页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、第 一 章不确定知识表示及推理4/18/20231培训专用内容1.1 概述1.2 概率模型1.3 主观Bayes方法1.4 可信度方法4/18/20232培训专用1.1 概述4/18/20233培训专用所谓不确定性推理就是从不确定性的初始事实(证据)出发,通过运用不确定的知识,最终推出具有一定程度的不确定性却是合理或者近乎合理的结论的思维过程。需要解决的问题:不确定性的表示不确定性的匹配不确定性的更新算法4/18/20234培训专用 证据的不确定性一、不确定性的表示证据通常有两类:一类为初始事实。这一类证据多来源于观察,因而通常具有不确定性;另一类为推理过程中产生的中间结果。证据不确定性用C(

2、E)表示,它代表相应证据的不确定性程度,即表示证据E为真的程度。如果E为初始事实,则C(E)由用户给出。如果E为推理过程中产生的中间结果,则C(E)可以通过不确定性的更新算法来计算。知识的不确定性4/18/20235培训专用规则:IF E THEN H规则是知识,E是规则的前提即证据,H是该规则的结论,也可以是其他规则的证据。EHC(E)C(H)f(E,H)规则的不确定性通常用一个数值f(E,H)表示,称为规则强度。规则的假设(结论)H也可以作为其他规则的证据,其不确定用C(H)表示,C(H)必须通过不确定性的更新算法来计算。4/18/20236培训专用在确定一种量度方法及其范围时,应注意以下

3、几点:量度要能充分表达相应的知识和证据的不确定性程度。量度范围的指定应便于领域专家及用户对不确定性的估计。量度要便于对不确定性的更新进行计算,而且对结论算出的不确定性量度不能超出量度的范围 量度的确定应当是直观的,同时应有相应的理论依据。4/18/20237培训专用二、不确定性的匹配算法 设计一个数用来计算匹配双方相似的程度,另外再指定一个相似的限度(称为阈值),用来衡量匹配双方相似的程度是否落在指定的限度内。如果落在指定的限度内,就称它们是可匹配的,相应的知识可被应用。否则就称它们是不可匹配的,相应的知识不可应用。4/18/20238培训专用三、不确定性的更新算法 即在推理过程中如何考虑知识

4、不确定性的动态积累和传递。1、已知规则前提的不确定性C(E)和规则的强度f(E,H),如何求假设H的不确定性C(H)。即定义算法g1,使C(H)=g1C(E),f(E,H)E1HC(E1)C(H)f(E1,H)E2HC(E2)C(H)f(E2,H)2、并行规则算法定义算法g2:C(H)=g2C1(H),C2(H)4/18/20239培训专用3、证据合取的不确定性算法C(E1 E2)=g3 C(E1),C(E2)C(E1 E2)=g4C(E1),C(E2)4、证据析取的不确定性算法合取和析取的不确定性算法统称为组合证据的不确定性算法。最大最小法C(E1E2)=min C(E1),C(E2)C(E

5、1E2)=max C(E1),C(E2)C(EE2)=C(E1)C(E2)C(EE2)=C(E1)C(E2)C(E1)C(E2)有界方法 概率方法C(E1E2)=max 0,C(E1)+C(E2)1 C(E1E2)=min 1,C(E1)+C(E2)4/18/202310培训专用设A1、A2、A3、A4为原始证据,不确定性分别为:C(A1)、C(A2)、C(A3)、C(A4)求A5、A6、A7的不确定性。举例A1A2ORA4A3ANDA5R1f1A6R2f2A7R3f3R4f44/18/202311培训专用由证据A1和A2的不确定性C(A1)和C(A2)由A1和A2析取的不确定性C(A1 A2

6、)和规则R1的规则强度f1根据算法4求出A1和A2析取的不确定性C(A1 A2)。根据算法1求出A5的不确定性C(A5)。由证据A3和A4的不确定性C(A3)和C(A4)由A3和A4合取的不确定性C(A3 A4)和规则R2的规则强度f2,根据算法3求出A3和A4合取的不确定性C(A3 A4)。根据算法1求出A6的不确定性C(A6)。4/18/202312培训专用由A5的不确定性C(A5)和规则R3的规则强度f3由A6的不确定性C(A6)和规则R4的规则强度f4由A7的两个根据独立证据分别求出的不确定性C(A7)和C(A7)根据算法1求出A7的其中一个不确定性C(A7)。根据算法1求出A7的另外

7、一个不确定性C(A7)。根据算法2求成A7最后的不确定性C(A7)。4/18/202313培训专用1.2 概率方法4/18/202314培训专用一、基础 1、全概率公式P(Ai)0;两两互不相容,即当ij时,有设事件满足:,D为必然事件则对任何事件B有下式成立:提供了一种计算P(B)的方法。4/18/202315培训专用2、Bayes公式定理:设事件满足上述定理的条件,则对任何事件B有:该定理称为Bayes定理,上式称为Bayes公式。4/18/202316培训专用如果把全概率公式代入Bayes公式中,就可得到:即:4/18/202317培训专用二、概率推理模型Bayes方法用于不精确推理的条

8、件是已知:P(E),P(H),P(E|H)IF E THEN H若一组证据E1,E2,En同时支持假设H时,则:对于H,E1,E2,En之间相互独立对于一般的不精确推理网络,必须做如下约定:当一个证据E支持多个假设H1,H2,Hn时,则:假设H1,H2,Hn 之间互不相容4/18/202318培训专用如果一个证据E支持多个假设H1,H2,Hn,即:IF E THEN Hi并已知P(Hi)和P(E|Hi),则如果有多个证据E1,E2,Em和多个结论H1,H2,Hn,则:4/18/202319培训专用设已知:P(H1)=0.4,P(H2)=0.3,P(H3)=0.3 P(E1|H1)=0.5,P(

9、E1|H2)=0.6,P(E1|H3)=0.3 P(E2|H1)=0.7,P(E2|H2)=0.9,P(E2|H3)=0.1=0.45 同理求:P(H1|E1E2),P(H2|E1E2),P(H3|E1E2)举例4/18/202320培训专用概率推理模型的优缺点有较强的理论背景和良好的数学特征,当证据及结论都彼此独立时,计算的复杂度比较低。它要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej|Hi),要获得这些数据是一件相当困难的工作。Bayes公式的应用条件很严格,它要求各事件互相独立,若证据之间存在依赖关系,就不能直接使用这个方法4/18/202321培训专用1.3 主观Ba

10、yes方法4/18/202322培训专用EHP(E)P(H)LS,LNLS,LN(0)分别称为充分性量度和必要性量度,这两个数值由领域专家给出。一、不确定性的表示1、知识的不确定性表示IF E THEN(LS,LN)H(P(H)4/18/202323培训专用O等价于概率函数P,定义如下:P越大则O越大,P和O在概率含义上等价的,但取值范围不同:当P0.5时,O0.5时,O1当P=0.5时,O=1当P=0时,O=0几率函数O(odds)4/18/202324培训专用H的先验几率O(H)和后验几率O(H|E)4/18/202325培训专用同理可得:O(H|E)=LNO(H)O(H|E)=LSO(H

11、)4/18/202326培训专用LS:规则的充分性量度LS=1时,O(H|E)=O(H),说明E对H没有影响;LS1时,O(H|E)O(H),说明E支持H,且LS越大,E对H的支持越充分。可见,E的出现对H为真是充分的,故称LS为充分性度量。LS1时,O(H|E)1时,O(H|E)O(H),说明E支持H,且LN越大,E对H的支持越充分。当LN1时,O(H|E)1且LN1 LS1 LS=LN=1由于E和E不可能同时支持H或同时反对H,所以领域专家在为一条知识中的LS和LN赋值时,不应该同时大于1或同时小于1。4/18/202329培训专用2、证据的不确定性表示在主观Bayes方法中,证据E的不确

12、定性由用户根据观察S给出后验概率P(E|S)或后验几率O(E|S)表示。当E为真时,P(E|S)=1,O(E|S)=当E为假时,P(E|S)=0,O(E|S)=0 当E不确定时,0P(E|S)0,所以使用CP公式的后一部分:4/18/202353培训专用求O(H1|S2)因为C(E2|S2)=10,所以使用CP公式的后一部分:4/18/202354培训专用求O(H1|S1S2)4/18/202355培训专用求O(H2|S1S2)为了确定应用EH公式的哪一部分,需要判断P(H1|S1S2)与P(H1)的关系。P(H1|S1S2)P(H1),必须用EH公式的后半部分:4/18/202356培训专用

13、4/18/202357培训专用求O(H2|S3)因为C(E3|S3)=-20,表示证据的存在增加结论为真的程度,CF(H,E)的值越大结论H越真;CF(H,E)=1,表示证据存在结论为真;CF(H,E)0证据的出现越是支持H为真,就使CF(H,E)的值越大;反之,使:CF(H,E)0 当证据肯定为真时:CF(E)=1 当证据以某种程度为假时:CF(E)0,即证据以某种程度为真,则CF(H)=CF(H,E)CF(E)若CF(E)=1,即证据为真时,则CF(H)=CF(H,E);若CF(E)0,即证据以某种程度为假,则CF(H)=0;在可信度方法的不精确推理中,并没有考虑证据为假时对结论H所产生的

14、影响。4/18/202373培训专用IF E1 THEN H (CF(H,E1)IF E2 THEN H (CF(H,E2)3、多个独立证据推出同一假设的合成算法先分别求两条规则得出的结论的可信度。CF1(H)=CF(H,E1)max0,CF(E1)CF2(H)=CF(H,E2)max0,CF(E2)利用下式求出E1和E2对H的综合影响所形成的CF1,2(H)。CF1(H)0,CF2(H)0:CF1,2(H)=CF1(H)+CF2(H)-CF1(H)CF2(H)CF1(H)0,CF2(H)0:CF1,2(H)=CF1(H)+CF2(H)+CF1(H)CF2(H)CF1(H)和CF2(H)异号:

15、CF1,2(H)=CF1(H)+CF2(H)4/18/202374培训专用在MYCIN系统的基础上形成的专家系统工具EMYCIN,将其修改为:在组合两个以上的独立证据时,可先组合其中两个,再将结果与第三个证据组合,如此下去,直到组合完毕为止。当CF1(H)0,CF2(H)0 时:CF1,2(H)=CF1(H)+CF2(H)-CF1(H)CF2(H)当CF1(H)0,CF2(H)0:CF1,2(H)=CF1(H)+CF2(H)+CF1(H)CF2(H)当CF1(H)和CF2(H)异号 时:4/18/202375培训专用即:已知规则IF E THEN H CF(H,E)及CF(H),求CF(H|E

16、)4、在已知结论原始可信度的情况下,结论可信度的更新计算方法这时分三种情况进行讨论。4/18/202376培训专用 CF(H)0,CF(H,E)0:CF(H|E)=CF(H)+CF(H,E)-CF(H,E)CF(H)CF(H)0,CF(H,E)0:CF(H|E)=CF(H)+CF(H,E)+CF(H,E)CF(H)CF(H)和CF(H,E)异号:当CF(E)=1时,即证据肯定出现时4/18/202377培训专用 CF(H)0,CF(H,E)0:CF(H|E)=CF(H)+CF(H,E)CF(E)-CF(H)CF(H,E)CF(E)CF(H)0,CF(H,E)0:CF(H|E)=CF(H)+CF

17、(H,E)CF(E)+CF(H)CF(H,E)CF(E)CF(H)和CF(H,E)异号:当0CF(E)1时4/18/202378培训专用当CF(E)0时在MYCIN系统中就规定,当CF(E)0.2时,规则IF E THEN H不可使用。结论可信度的合成算法和更新算法本质上是一致的,但对不同前提条件,使用不同的方法,解题的效果或难易程度不同。有些题目使用合成法求解就比较容易,而有些题目就需要使用更新法。规则不可使用,对结论H的可信度无影响。4/18/202379培训专用R1:IF A1 THEN B1 CF(B1,A1)=0.8R2:IF A2 THEN B1 CF(B1,A2)=0.5R3:I

18、F B1A3 THEN B2 CF(B2,B1A3)=0.8并且已知:CF(A1)=CF(A2)=CF(A3)=1而对B1,B2一无所知。求CF(B1)和CF(B2)。三、可信度方法应用举例1、多条知识下,合成法求结论可信度举例举例14/18/202380培训专用解:由于对B1,B2的初始可信度一无所知,使用合成算法计算A1B1R1A2R2A3B2R3对知识R1和R2,分别计算CF(B1)CF1(B1)=CF(B1,A1)max0,CF(A1)=0.81=0.8CF2(B1)=CF(B1,A2)max0,CF(A2)=0.51=0.5利用合成算法计算B1的综合可信度CF1,2(B1)=CF1(

19、B1)+CF2(B1)-CF1(B1)CF2(B1)=0.8+0.5-0.80.5=0.9计算B2的可信度CF(B2)CF(B2)=CF(B2,B1A3)max0,CF(B1A3)=0.8 max0,minCF(B1),CF(A3)=0.8 max0,min0.9,1=0.8 max0,0.9=0.80.9=0.72 4/18/202381培训专用R1:IF E1 THEN H CF(H,E1)=0.8R2:IF E2 THEN H CF(H,E2)=0.6R3:IF E3 THEN H CF(H,E3)=0.5R4:IF E4(E5 E6)THEN E1 CF(E1,E4(E5 E6)=0.

20、7R5:IF E7E8 THEN E3 CF(E3,E7E8)=0.9在系统运行中已从用户处得:CF(E2)=0.8,CF(E4)=0.5,CF(E5)=0.6,CF(E6)=0.7,CF(E7)=0.6,CF(E8)=0.9求:CF(H)举例24/18/202382培训专用解:由已知知识建立推理网络如图。E1HR1E2R2E3R3E4E5E6R4E8E7R54/18/202383培训专用由R4:CF(E1)=CF(E1,E4(E5E6)max0,CF(E4(E5E6)=0.7max0,minCF(E4),CF(E5 E6)=0.7max0,minCF(E4),maxCF(E5),CF(E6)

21、=0.7max0,minCF(E4),max0.6,0.7=0.7max0,minCF(E4),0.7=0.7 max0,min0.5,0.7=0.7 max0,0.5=0.7 0.5=0.35由R5:CF(E3)=CF(E3,E7E8)max0,CF(E7E8)=0.9max0,minCF(E7),CF(E8)=0.9max0,min0.6,0.9 =0.9max0,0.6=0.90.6=0.544/18/202384培训专用由R1:将R1和R2两条知识合成:CF1,2(H)=CF1(H)+CF2(H)-CF1(H)CF2(H)=0.28+0.48-0.280.48=0.6256 CF1(H

22、)=CF(H,E1)max0,CF(E1)=0.8max0,0.35=0.80.35=0.28由R2:CF2(H)=CF(H,E2)max0,CF(E2)=0.6max0,0.8=0.60.8=0.48由R3:CF3(H)=CF(H,E3)max0,CF(E3)=-0.5max0,0.54=-0.50.54=-0.274/18/202385培训专用将CF1,2(H)和CF3(H)合成4/18/202386培训专用规则可信度为:2、多条知识下,更新法求结论可信度举例证据可信度为:CF(A)=CF(B)=CF(C)=CF(D)=0.5X,Y的初始可信度为:CF0(X)=0.1,CF0(Y)=0.2

23、要求用MYCIN的方法计算:结论X的可信度CF(X)结论Y的可信度CF(Y)R1:AXCF(X,A)=0.8R2:BXCF(X,B)=0.6R3:CXCF(X,C)=0.4R4:XDY CF(Y,XD)=0.3举例34/18/202387培训专用解:考虑X,Y具有初始可信度,故用更新法计算结论可信度。先计算X的可信度更新值:CF(A)=CF(B)=CF(C)=CF(D)=0.51由R1:CF(X|A)CF0(X)+CF(X,A)CF(A)-CF0(X)CF(X,A)CF(A)=0.1+0.80.5-0.10.80.5=0.46由R2:CF(X|AB)=CF(X|A)+CF(X,B)CF(B)-

24、CF(X|A)CF(X,B)CF(B)=0.46+0.60.5-0.460.60.5=0.6224/18/202388培训专用由R3:CF(X|ABC)=CF(X|AB)+CF(X,C)CF(C)CF(X|AB)CF(X,C)CF(C)=0.622+0.40.5-0.6220.40.5=0.698则CF(X)=0.698 CF(XD)=minCF(X),CF(D)=min0.698,0.5=0.5由R4:CF(Y|D)=CF0(Y)+CF(Y,D)CF(D)CF0(Y)CF(Y,D)CF(D)=0.2+0.30.5-0.20.30.5=0.32则CF(Y)=0.324/18/202389培训专

25、用R1:IF A1 THEN B1 CF(B1,A1)=0.8R2:IF A2 THEN B1 CF(B1,A2)=0.5R3:IF B1A3 THEN B2CF(B2,B1A3)=0.8并且已知:CF(A1)=CF(A2)=CF(A3)=1对B1,B2一无所知,其可信度为:CF0(B1)=CF0(B2)=0求:CF(B1)和CF(B2)举例44/18/202390培训专用由R1:使用更新法。由于CF(A1)=CF(A2)=CF(A3)=1使用R1规则后,CF(B1)由0提高到0.8 由R2:CF(B1|A1A2)=CF(B1|A1)+CF(B1,A2)CF(B1|A1)CF(B1|A1)=0

26、.8+0.5-0.80.5=0.9所以CF(B1)的更新值为0.9CF(B1A3)=minCF(B1),CF(A3)=min0.9,1=0.9 CF(B1|A1)=CF0(B1)+CF(B1,A1)CF(B1,A1)CF0(B1)=0+0.8-0=0.84/18/202391培训专用由R3:使用合成算法的前提是:结论的原来可信度是0,即对结论的情况一无所知。在这种情况下,这两种算法是等价的。从某种意义上来说,合成算法是更新算法的一个特例。CF(B2|B1A3)=CF0(B2)+CF(B2,B1A3)CF(B1A3)CF0(B2)CF(B2,B1A3)CF(B1A3)=0+0.80.9-0=0.

27、72 4/18/202392培训专用演讲完毕,谢谢观看!培训专用内容总结第 一 章。规则的不确定性通常用一个数值f(E,H)表示,称为规则强度。根据算法1求出A6的不确定性C(A6)。根据算法1求出A7的其中一个不确定性C(A7)。根据算法1求出A7的另外一个不确定性C(A7)。根据算法2求成A7最后的不确定性C(A7)。如果把全概率公式代入Bayes公式中,就可得到:。当一个证据E支持多个假设H1,H2,Hn时,则:。当P0.5时,O0.5时,O1。当用推理过程中得到的中间结论作为证据进行推理时,通过运用EH公式就可求得P(H|S)。Ei之间相互独立,且对每个Ei都有相应的观察Si与之对应。E=E1E2En。E=E1E2En。已知:结论B的先验概率P(B)=0.03。当证据A必然发生时,求P(B2/A)。知识用产生式规则表示,每一条规则都有一个可信度。可信度CF和概率P有一定的对应关系,但又有区别。当CF(E)=1时,即证据肯定出现时。当0CF(E)1时。计算B2的可信度CF(B2)。结论X的可信度CF(X)。结论Y的可信度CF(Y)。R1:AXCF(X,A)=0.8。R2:BXCF(X,B)=0.6。演讲完毕,谢谢观看培训专用

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 其他杂项

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁