人工智能课程习题与部分解答(12页).doc

上传人:1595****071 文档编号:39797181 上传时间:2022-09-08 格式:DOC 页数:12 大小:332KB
返回 下载 相关 举报
人工智能课程习题与部分解答(12页).doc_第1页
第1页 / 共12页
人工智能课程习题与部分解答(12页).doc_第2页
第2页 / 共12页
点击查看更多>>
资源描述

《人工智能课程习题与部分解答(12页).doc》由会员分享,可在线阅读,更多相关《人工智能课程习题与部分解答(12页).doc(12页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、-人工智能课程习题与部分解答-第 12 页人工智能课程习题与部分解答第1章 绪论1.1 什么是人工智能? 它的研究目标是什么?1.2 什么是图灵测试?简述图灵测试的基本过程及其重要特征.1.3 在人工智能的发展过程中,有哪些思想和思潮起了重要作用?1.5 在人工智能的发展过程中,有哪些思想和思潮起了重要作用?1.7 人工智能的主要研究和应用领域是什么?其中,哪些是新的研究热点?第2章 知识表示方法2.1 什么是知识?分类情况如何?2.2 什么是知识表示?不同的知识表示方法各有什么优缺点?2.4 人工智能对知识表示有什么要求?2.5 用谓词公式表示下列规则性知识:自然数都是大于零的整数。任何人都

2、会死的。解 定义谓词如下: N(x): “x是自然数”, I(x): “x是整数”, L(x): “x大于0”, D(x): “x会死的”, M(x): “x是人”,则上述知识可用谓词分别表示为:2.6 用谓词公式表示下列事实性知识:小明是计算机系的学生,但他不喜欢编程。李晓新比他父亲长得高。2.8 产生式系统由哪几个部分组成? 它们各自的作用是什么?2.9 可以从哪些角度对产生式系统进行分类? 阐述各类产生式系统的特点。2.10简述产生式系统的优缺点。2.11 简述框架表示的基本构成,并给出框架的一般结构2.12框架表示法有什么特点?2.13试构造一个描述你的卧室的框架系统。2.14 试描述

3、一个具体的大学教师的框架系统。解 一个具体大学教师的框架系统为:框架名: 类属: 姓名:张宇 性别:男 年龄:32 职业: 职称:副教授 部门:计算机系 研究方向:计算机软件与理论 工作:参加时间:2000年7月 工龄:当前年份-2000工资:2.16把下列命题用一个语义网络表示出来 (1)树和草都是植物; (2)树和草都是有根有叶的; (3)水草是草,且生长在水中;(4)果树是树,且会结果;(5)苹果树是果树的一种,它结苹果。解植物AKOAKOHAVEHAVE有根有叶草树AKOAKO水草果树AKOLocate at苹果树水HAVE苹果2.17在基于语义网络的推理系统中,一般有几种推理方法,简

4、述它们的推理过程。2.18 简述语义网络中常用的语义联系。2.19 用一个语义网络表示:“我的汽车是棕黄色的”“李华的汽车是绿色的”解 参考课件。2.10 用语义网络和框架方法表示下列知识:John gives a book to Mary解 参考课件。第3章 搜索推理技术3.1 在人工智能中,搜索问题一般包括哪两个重要问题?3.2 简述搜索策略的评价标准。3.3 比较盲目搜索中各种方法的优缺点。试用宽度优先搜索策略,画出搜索树、找出最优搜索路线。解 (1)搜索树参考课件。(2)最优搜索路线:S0S1S5S10.3.5 对于八数码问题,设初始状态和目标状态如图3.2所示:S1=283Sg=12

5、31648475765图 3.2 八数码问题试给出深度优先(深度限制为5)和宽度优先状态图。解(1) 深度优先(深度限制为5)状态图为(2)宽度优先状态图为3.6 什么是启发式搜索? 其中什么是评估函数? 其主要作用是什么?3.7 最好优先的基本思想是什么? 有什么优缺点?3.8 对于八数码问题,设初始状态和目标状态如图3.2所示。设d (x)表示节点x在搜索树中的深度,评估函数为f (x)=d (x)+w(x),其中w(x)为启发式函数。试按下列要求给出八数码问题的搜索图,并说明满是一种A*算法,找出对应的最优搜索路径。(1)w (x)=h(x)表示节点x中不在目标状态中相应位置的数码个数;

6、(2)w (x)=p(x)表示节点x的每一数码与其目标位置之间的距离总和。 (3)w (x)=0,情况又如何? 解 (1) 8数码的搜索过程如图所示:在上面确定h(x)时,尽管并不知道h*(x)具体为多少,但当采用单位代价时,通过对不在目标状态中相应位置的数码个数的估计,可以得出至少需要移动h(x)步才能够到达目标,显然h(x)h*(x)。因此它满足A*算法的要求。最优搜索路径: 如图粗线所示。(2) 此时8数码搜索图可表示为:这时,显然有h(x)p(x)h*(n),相应的搜索过程也是A*算法。然而,p(x)比h(n)有更强的启发式信息,由w(x)=p(x)构造的启发式搜索树,比w(x)=h(

7、x)构造的启发式搜索树节点数要少。(3)若w(x)=0,该问题就变为宽度优先搜索问题。3.9 如图3.3所示,是5个城市之间的交通路线图,A城市是出发地,E城市是目的地,两城市之间的交通费用(代价)如图中的数字,求从A到E的最小费用交通路线。35ACDEB3424 图3.3 旅行交通图本题是考察代价树搜索的基本概念,了解这种搜索方法与深度优先和宽度优先的不同。首先将旅行交通图转换为代价树如图3.4所示。图3.4 交通图的代价树(1) 如果一个节点已经成为某各节点的前驱节点,则它就不能再作为该节点的后继节点。例如节点B相邻的节点有A和D,但由于在代价树中,A已经作为B的前驱节点出现,则它就不再作

8、为B的后继节点。(2) 除了初始节点A外,其它节点都有可能在代价树中多次出现,为了区分它们的多次出现,分别用下标1、2、3标出,但它们都是图中同一节点。例如C1和C2都代表图中节点C。对上面所示的代价树做宽度优先搜索,可得到最优解为:AC1D1E2代价为8。由此可见,从A城市到E城市的最小费用路线为:ACDE如果采用代价树的深度优先搜索,也会得到同样的结果:ACDE但注意:这只是一种巧合,一般情况下,这两种方法得到的结果不一定相同。再者,代价树的深度优先搜索可能进入无穷分支路径,因此也是不完备的。3.10 对于图3.4所示的状态空间图,假设U是目标状态,试给出宽度优先搜索与深度优搜索的OPEN

9、表和CLOSED表的变化情况。图3.5 状态空间图解 宽度优先搜索的OPEN表和CLOSED表的变化情况:1. OPEN=A; CLOSED= 2. OPEN=B,C,D; CLOSED=A3. OPEN=C,D,E,F; CLOSED=B,A4. OPEN=D,E,F,G,H; CLOSED=C,B, A5. OPEN=E,F,G,H,I,J; CLOSED=D,C,B, A6. OPEN=F,G,H,I,J,K,L; CLOSED=E,D,C,B,A7. OPEN=G,H,I,J,K,L,M(由于L已在OPEN中); CLOSED=F,E,D,C,B,A8. OPEN=H,I,J,K,L,

10、M,N; CLOSED=G,F,E,D,C,B,A9. 以此类推,直到找到了U或OPEN= 。深度优先搜索的OPEN表和CLOSED表的变化情况:1. OPEN=A; CLOSED= 2. OPEN=B,C,D; CLOSED=A3. OPEN=E,F,C,D; CLOSED=B,A4. OPEN=K,L,F,C,D; CLOSED=E,B, A5. OPEN=S,L,F,C,D; CLOSED=K,E,B, A6. OPEN=L,F,C,D; CLOSED=S,K,E,B,A7. OPEN=T,F,C,D; CLOSED=L,S,K,E,B,A8. OPEN=F,C,D; CLOSED=T,

11、L,S,K,E,B,A9. OPEN=M,C,D(由于L已经在CLOSED中; CLOSED=F,T,L,S,K,E,B,A10. OPEN=C,D; CLOSED=M,F,T,L,S,K,E,B,A11. OPEN=G,H,D; CLOSED=C,M,F,T,L,S,K,E,B,A12. 以此类推,直到找到了U或OPEN= 。第4章 自动推理4.1什么是推理的控制策略?有哪几种主要的推理驱动模式?4.2自然演绎推理的基本概念与基本的推理规则。4.3 什么是合取范式? 什么是析取范式? 什么是Skolem标准化? 如何将一个公式化为这些形式?4.4 将下列公式化为Skolem标准型:解 在公式

12、中,的前面没有全称量词,的前面有全称量词和, 在的前面有全称量词,和。所以,在中,用常数a代替x, 用二元函数f(y,z)代替u, 用三元函数g(y,z,v)代替w,去掉前缀中的所有存在量词之后得出Skolem标准型:4.5化为子句形有哪些步骤?解(1)利用等价谓词关系消去谓词公式中的蕴涵符“ ”和双条件符“ ”。(2)利用等价关系把否定符号“”移到紧靠谓词的位置上。(3)重新命名变元名,使不同量词约束的变元有不同的名字。(4)消去存在量词。(5)将公式化为前束形。(6)把公式化为Skolem标准形。(7)消去全称量词。(8)消去合取词。(9)对变元更名,使不同子句中的变元不同名。4.6将下列

13、谓词公式化为子句集:(1) (x)P(x)Q(x)(y)S(x,y)Q(x)(x)P(x)B(x)(2)解 (1) 转换过程遵照下列9个步骤依此为:A. 消去蕴涵符符号:B.减少否定符号的辖域:C. 变量标准化:D. 消去存在量词:E. 化为前束型:F. 把母式化为合取范式:G. 消去全称量词:H. 消去合取词:I. 子句变量标准化后, 最终的子句集为:(2) 参见课本P122A. 消去蕴涵符符号:B. 减少否定符号的辖域:C. 变量标准化:D. 消去存在量词:E. 化为前束型:F. 把母式化为合取范式:G. 消去全称量词:H. 消去合取词:I. 更改变量名:4.7 把下面的表达式转化成子句形

14、式 (1) (2)(3)解(1) 则子句集为 (2) 则子句集为 (3) 则子句集为4.10 求证G是F1和F2的逻辑结论。证明 首先将和化为子句集:F1: 所以F2:所以所以下面进行归结: R(b) Q(b) L(a,b) 和 和 和 Nil 和所以,G是F1,F2的逻辑结论。要求证明结论G:4.12利用归结原理证明:“有些患者喜欢任一医生。没有任一患者喜欢任一庸医。所以没有庸医的医生”。解 定义谓词为: P(x): “x是患者”, D(x): “x是医生”, Q(x): “x是庸医”, L(x,y): “x喜欢y”, 则前提与结论可以符号化为:A1: A2: G: 目前是证明G是A1和A2

15、的逻辑结论, 即证明是不可满足的. 首先, 求出子句集合:A1: A2: 因此的子句集合S为:归结证明S是不可满足的: S (2)(4) (1)(3) (5)(7)(9) Nil (6)(8)4.14已知:能阅读的都是有文化的; 海豚是没有文化的; 某些海豚是有智能的;用归结反演法证明:某些有智能的并不能阅读。证明 首先定义谓词:R(x): x能阅读, L(x): x有文化D(x): x是海豚, I(x): x有智能将前提形式化地表示为: A1: A2: A3: 将结论形式化地表示为: G: 即要证明为真. 即证明是不可满足的. 把它化为子句集为:现在用归结证明S是不可满足的: S (4)(5

16、) (1)(6) (2)(7) (9) Nil (3)(8)4.15某人被盗,公安局派出所派出5个侦察员去调查。研究案情时: 侦察员A说:“赵与钱中至少有一人作案”; 侦察员B说:“钱与孙中至少有一人作案”; 侦察员C说:“孙与李中至少有一人作案”; 侦察员D说:“赵与孙中至少有一人与此案无关”; 侦察员E说:“钱与李中至少有一人与此案无关”。如果这5个侦察员的话都是可信的,试问谁是盗窃犯呢?解第一步: 设谓词P(x)表示x是作案者,所以根据题意: A: P(zhao)P(qian) B: P(qian)P(sun) C: P(sun)P(li) D: P(zhao)P(sun) E: P(q

17、ian)P(li) 以上每个侦查员的话都是一个子句。第二步:将待求解的问题表示成谓词。设y是盗窃犯,则问题的谓词公式为P(y),将其否定并与ANS(y)做析取得: P(y)ANS(y)第三步:求前提条件及P(y)ANS(y)的子句集,并将各子句列表如下:(1) P(zhao)P(qian)(2) P(qian)P(sun)(3) P(sun)P(li)(4) P(zhao)P(sun)(5) P(qian)P(li)(6) P(y)ANS(y)第四步:应用归结原理进行推理。(7) P(qian)P(sun) (1) 与 (4) 归结(8) P(zhao)P(li) (1) 与 (5) 归结(9

18、) P(qian)P(zhao) (2) 与 (4) 归结(10) P(sun)P(li) (2) 与 (5) 归结(11) P(zhao)P(li) (3) 与 (4) 归结(12) P(sun)P(qian) (3) 与 (5) 归结(13) P(qian) (2) 与 (7) 归结(14) P(sun) (2) 与 (12) 归结(15) ANS(qian) (6) 与 (13) 归结(16) ANS(sun) (6) 与 (14) 归结所以,本题的盗窃犯是两个人:钱和孙。4.16 已知:张和李是同班同学,如果x和y是同班同学,则x的教室也是y的教室。现在张在J1-3上课,问李在哪里上课

19、?解 首先定义谓词:C(x,y): x 和y是同学At(x,u): x在u教室上课则已知前提可表示为C(Zhang, Li)At(Zhang, J1-3)将目标表示成谓词:典At(Li, v),采用重言式,得到子句集合S为:归结过程如下:(5) (2)(4)归结 Li|y, v|u(6) (1)(5)归结 Zhang|x(7) (3)(6)归结 J1-3|v最后就是所得到的答案:李在J1-3上课。第5章 不确定性推理5.1什么是不确定性推理?不确定性推理的基本问题是什么?5.2在主观Bayes方法中,如何引入规则的强度的似然率来计算条件概率?这种方法优点是什么?主观Bayes方法有什么问题?试

20、说明LS和LN的意义。5.3设有规则: R1: IF E1 THEN (20, 1) H R2: IF E2 THEN (300, 1) H已知证据E1和E2必然发生,并且P(H)=0.03,求H的后验概率。解 因为P(H)=0.03, 则O(H)=0.03/(1-0.03)=0.030927根据R1有O(H|E1)=LS1O(H)=200.030927=0.6185根据R2有O(H|E2)=LS2O(H)=3000.030927=9.2781那么所以H的后验概率为5.4设有规则: R1: IF E1 THEN (65, 0.01) H R2: IF E2 THEN (300, 0.0001)

21、 H已知:P(E1|S1)=0.5, P(E2|S2)=0.02, P(H)=0.01, P(E1)=0.1, P(E2)=0.03求:P(H|S1S2) 解 根据R1,因为P(E1|S1)=0.5P(E1)=0.1,则有根据R2,因为P(E2|S2)=0.02P(E2)=0.03,则有根据R2, 因为P(E2|S2)=0.02P(E2)=0.02, 则有根据上面的计算,因为:则有根据上面的计算,因为则有5.5何谓可信度?简述可信度模型及其各部分含义。5.6设有如下规则:R1: IF E1 THEN H (0.9)R2: IF E2 THEN H (0.6)R3: IF E3 THEN H (

22、-0.5)R4: IF E4 AND (E5 OR E6) THEN E1 (0.8)已知CF(E2)=0.8, CF(E3)=0.6, CF(E4)=0.5, CF(E5)=0.6, CF(E6)=0.8, 求CF(H)=?解 由R4得到:CF(E1)=0.8max0,CF(E4 AND (E5 OR E6)=0.8max0,minCF(E4),CF(E5 OR E6) =0.8max0,minCF(E4),maxCF(E5),CF(E6)=0.8max0,min0.5,0.8 =0.8max0,0.5=0.4由R1得到:CF1(H)=CF(H,E1)max0,CF(E1)=0.9max0,

23、0.4=0.36由R2得到:CF2(H)=CF(H,E2)max0,CF(E2)=0.6max0,0.8=0.48由R3得到:CF3(H)=CF(H,E3)max0,CF(E3)=-0.5max0,0.6= -0.3根据结论不确定性的合成算法得到:CF1,2(H)=CF1(H)+CF2(H)-CF1(H)CF2(H)=0.36+0.48-0.360.48=0.67CF1,2,3(H)=CF1,2(H)+CF3(H)=0.67+(-0.3)=0.47或者5.7设有如下规则:R1: IF E1 THEN H (0.8)R2: IF E2 THEN H (0.6)R3: IF E3 THEN H (

24、-0.5)R4: IF E4 AND (E5 OR E6) THEN E1 (0.7)R5: IF E7 AND E8 THEN E3 (0.9)在系统运行中已从用户处得CF(E2)=0.8, CF(E4)=0.5, CF(E5)=0.6, CF(E6)=0.7, CF(E7)=0.6, CF(E8)=0.9, 求H的综合可信度CF(H)。解 (1)求证据E4,E5,E6逻辑组合的可信度(2)根据规则R4,求CF(E1)(3)求证据E7,E8逻辑组合的可信度(4)根据规则R5, 求CF(E3)(5)根据规则R1, 求CF1(H)(6)根据规则R2, 求CF2(H)(7)根据规则R3, 求CF3

25、(H)(8)组合由独立证据导出的假设H的可信度CF1(H),CF2(H)和CF3(H),得到H的综合可信度:或者5.8 5.8 设有如下规则:R1: A1B1 CF(B1,A1)=0.8R2: A2B1 CF(B1,A2)=0.5R3: B1A3B2 CF(B2,B1A3)=0.8初始证据A1,A2,A3的CF值均设为1,而初始未知证据B1,B2的CF值均为0,即对B1,B2一无所知。求CF(B1),CF(B2)的更新值。解 (1) 对知识R1,R2,分别计算CF(B1)。CF1(B1)=CF(B1,A1)max0,CF(A1)=0.81=0.8CF2(B1)=CF(B1,A2)max0,CF

26、(A2)=0.51=0.5(2) 计算B1的综合可信度。CF1,2(B1)=CF1(B1)+CF2(B1)-CF1(B1)CF2(B1) 0.8+0.5-0.80.5=0.9(3) 计算B2的可信度CF(B2)。这时,B1作为B2的证据,其可信度已有前面计算出来,而A3的可信度为初始指定的1。由规则R3得到CF(B2)=CF(B2, B1A3)max0,CF(B1A3)= CF(B2, B1A3)max0,minCF(B1),CF(A3)=0.8max0,0.9=0.72所以,所求得的B1,B2的可信度的更新值分别为CF(B1)=0.9, CF(B2)=0.725.9 什么是概率分配函数、信任

27、函数、似然函数与类概率函数?5.10 如何用证据理论描述假设、规则和证据的不确定性,并实现不确定的传递与组合?5.11 已知f1(E1)=0.8, f1(E2)=0.6, |U|=20, E1E2H=h1,h2 (c1,c2)=(0.3, 0.5),计算f1(H)。解 先计算f1(E1E2):f1(E1E2)=minf1(E1),f1(E2)=min0.8,0.6=0.6再计算m(h1,h2):m(h1,h2)=(0.60.3, 0.60.5)=(0.18, 0.3)于是Bel(H)=m()+m(h1)+m(h2)+m(h1,h2) =0+0.18+0.3+0=0.48Pl(H)=1-Bel(

28、H)=1-0=1最后得 f1(H)=Bel(H)+|H|/|U|(Pl(B)-Bel(B)=0.48+2/20(1-0.48)=0.53.5.12 考生考试成绩的论域为A,B,C,D,E,小王成绩为A、为B、为A或B的基本概率分别分配为0.2、0.1、0.3。Bel(C,D,E)=0.2。请给出Bel(A,B)、Pl(A,B)和f1(A,B)。解 由题意知道:M(A)=0.2, M(B)=0.1, M(A,B)=0.3则Bel(A,B)=M(A,B)+M(A)+M(B)+M()=0.6Pl(A,B)=1-Bel(A,B)=1-Bel(C,D,E)=0.8F(A,B)=Bel(A,B)+(Pl(A,B)-Bel(A,B) =0.6+2/5(0.8-0.6)=0.68.第6章 机器学习(了解)6.1简单的学习模型由哪几部分组成?各部分的功能是什么?6.2可以从哪几个角度来分类机器学习方法?按各类方式阐述主要的机器学习类型。6.3何谓归纳学习?何谓变型空间学习?6.4画出归纳学习的双空间模型,并简述各部分功能。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高考资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁