智能决策理论与方法.ppt

上传人:赵** 文档编号:65767954 上传时间:2022-12-08 格式:PPT 页数:53 大小:2.04MB
返回 下载 相关 举报
智能决策理论与方法.ppt_第1页
第1页 / 共53页
智能决策理论与方法.ppt_第2页
第2页 / 共53页
点击查看更多>>
资源描述

《智能决策理论与方法.ppt》由会员分享,可在线阅读,更多相关《智能决策理论与方法.ppt(53页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、决策理论与方法决策理论与方法(4)智能决策理论与方法智能决策理论与方法(2)合肥工业大学管理学院合肥工业大学管理学院合肥工业大学管理学院合肥工业大学管理学院Wednesday,December 7,2022Wednesday,December 7,2022智能决策理论与方法智能决策理论与方法1 1、智能决策理论的形成背景、智能决策理论的形成背景、智能决策理论的形成背景、智能决策理论的形成背景2 2、知识发现、知识发现、知识发现、知识发现3 3、机器学习、机器学习、机器学习、机器学习4 4、不确定性理论、不确定性理论、不确定性理论、不确定性理论决策理论与方法-智能决策理论与方法机器学习机器学习v

2、v机器学习机器学习机器学习机器学习是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学与技术原理建立各种学习模型,从根本上提高计算与技术原理建立各种学习模型

3、,从根本上提高计算与技术原理建立各种学习模型,从根本上提高计算与技术原理建立各种学习模型,从根本上提高计算机智能和学习能力。机智能和学习能力。机智能和学习能力。机智能和学习能力。研究内容研究内容研究内容研究内容是根据生理学、认知是根据生理学、认知是根据生理学、认知是根据生理学、认知科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和学习方法,模型或认知

4、模型;发展各种学习理论和学习方法,研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化v归纳学习归纳学习是指从给定的关于某个概念的一系列已知是指从给定的关于某个概念的一系列已知的正例和反例中归纳出一个通用的概念描述。的正例和反例中归纳出一个通用的概念描述。v泛化泛化(G

5、eneralization)是用来扩展一假设的语义信是用来扩展一假设的语义信息,使其能够包含更多的正例。泛化所得到的结论息,使其能够包含更多的正例。泛化所得到的结论并不总是正确的。并不总是正确的。v常用泛化方法常用泛化方法:将常量转为变量规则将常量转为变量规则:对于概念:对于概念F(v),如果,如果v的某些取值的某些取值a,b,使使F(v)成立,则这些概念可被泛化为:对于成立,则这些概念可被泛化为:对于v的所有的所有值,值,F(v)均成立:均成立:决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化消除条件规则消除条件规则消除条件规则消除条件规则:一个合取条件可看作是

6、对满足此概念的:一个合取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛化。化。化。化。添加选项添加选项添加选项添加选项:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足概念而使该概念泛化。该规则特别有用的方式是通过扩概念而使该概念泛化。该规则特别

7、有用的方式是通过扩概念而使该概念泛化。该规则特别有用的方式是通过扩概念而使该概念泛化。该规则特别有用的方式是通过扩展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。将合取转为析取规则将合取转为析取规则将合取转为析取规则将合取转为析取规则决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化爬升概念树规则爬升概念树规则爬升概念树规则爬升概念树规则:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层

8、概念替代。设概念替代。设概念替代。设概念替代。设A A表示信息系统中的某个属性如表示信息系统中的某个属性如表示信息系统中的某个属性如表示信息系统中的某个属性如AnimalAnimal,a a,b b,分别为对象分别为对象分别为对象分别为对象u u,v v,在属性在属性在属性在属性A A上的取值,若上的取值,若上的取值,若上的取值,若s s是概念树是概念树是概念树是概念树上上上上a a,b b,的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:NickNick等人给出了一

9、种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。vv过度泛化问题过度泛化问题过度泛化问题过度泛化问题当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终止泛化算法的策略。止泛化算法的策略。止泛

10、化算法的策略。止泛化算法的策略。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化动物哺乳类鸟类企鹅食肉类蹄类飞禽类走禽类虎印度豹长颈鹿斑马信天翁鹰驼鸟第1层第2层第3层第4层决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv决策树学习决策树学习决策树学习决策树学习是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。所谓决策树是所谓决策树是所谓决策树是所谓决策树是一个类似流程图的树结构,其中树的内结点对应属性或属性一个类似流程图的树结构,其中树的内结点对应属性或属

11、性一个类似流程图的树结构,其中树的内结点对应属性或属性一个类似流程图的树结构,其中树的内结点对应属性或属性集,每个分枝表示检验结果集,每个分枝表示检验结果集,每个分枝表示检验结果集,每个分枝表示检验结果(属性值属性值属性值属性值),树枝上的叶结点代表,树枝上的叶结点代表,树枝上的叶结点代表,树枝上的叶结点代表所关心的因变量的取值所关心的因变量的取值所关心的因变量的取值所关心的因变量的取值(类标签类标签类标签类标签),最顶端的结点称为根结点。,最顶端的结点称为根结点。,最顶端的结点称为根结点。,最顶端的结点称为根结点。vv决策树学习采用自顶向下的递归方式,在决策树的内部结点决策树学习采用自顶向下

12、的递归方式,在决策树的内部结点决策树学习采用自顶向下的递归方式,在决策树的内部结点决策树学习采用自顶向下的递归方式,在决策树的内部结点进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分支,在叶结点得到结论。支,在叶结点得到结论。支,在叶结点得到结论。支,在叶结点得到结论。从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的一条路径,这条路径就是一条决策一条路径,这条路径就

13、是一条决策一条路径,这条路径就是一条决策一条路径,这条路径就是一条决策“规则规则规则规则”。vv当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。所有所有所有所有的决策树都有一等价的的决策树都有一等价的的决策树都有一等价的的决策树都有一等价的ANNA

14、NN表示;也可用表示;也可用表示;也可用表示;也可用SVMSVM实现相同的实现相同的实现相同的实现相同的功能。功能。功能。功能。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树A0A0 A1A1 A2A2 A3A3 类类类类0 00 00 00 0-1-10 00 00 01 1-1-10 00 01 10 0-1-10 00 01 11 1-1-10 01 10 00 01 10 01 10 01 11 10 01 11 10 01 10 01 11 11 11 1A0A0A1A1 A2A2 A3A3 类类类类1 10 00 00 0-1-11 10 00

15、01 1-1-11 10 01 10 0-1-11 10 01 11 1-1-11 11 10 00 01 11 11 10 01 11 11 11 11 10 0-1-11 11 11 11 1-1-1A0A1A1A2-11-11-110010110决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv概念学习系统概念学习系统概念学习系统概念学习系统CLS(HuntCLS(Hunt):从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结

16、点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地将训练实例分类为止。将训练实例分类为止。将训练实例分类为止。将训练实例分类为止。产生根节点产生根节点产生根节点产生根节点T T,T T包含所有的训练样本;包含所有的训练样本;包含所有的训练样本;包含所有的训练样本;如果如果如果如果T T中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有“1”1”的节点作的节点作的节点作的节点作为为为为T T的子节点,并结束

17、;的子节点,并结束;的子节点,并结束;的子节点,并结束;如果如果如果如果T T中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有“-1”-1”的节点作的节点作的节点作的节点作为为为为T T的子节点,并结束;的子节点,并结束;的子节点,并结束;的子节点,并结束;选择一个属性选择一个属性选择一个属性选择一个属性A A(如何选如何选如何选如何选?)?),根据该属性的不同取值,根据该属性的不同取值,根据该属性的不同取值,根据该属性的不同取值v v1 1,v v2 2,v vn n将将将将T T中的训练集划分为

18、中的训练集划分为中的训练集划分为中的训练集划分为n n个子集,并根据这个子集,并根据这个子集,并根据这个子集,并根据这n n个子集建立个子集建立个子集建立个子集建立T T的的的的n n个个个个子节点子节点子节点子节点T T1 1,T,T2 2,T Tn n,并分别以,并分别以,并分别以,并分别以A=A=v vi i作为从作为从作为从作为从T T到到到到T Ti i的分支符号;的分支符号;的分支符号;的分支符号;以每个子节点以每个子节点以每个子节点以每个子节点T Ti i为根建立新的子树。为根建立新的子树。为根建立新的子树。为根建立新的子树。决策理论与方法-智能决策理论与方法机器学习机器学习归纳

19、学习:决策树归纳学习:决策树A0A1A1A2-11-11-110010110T2T2T1T1T11T11T12T12T111T111T112T112T21T21T22T22T决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vvID3ID3算法算法算法算法(Quinlan)(Quinlan):ID3ID3算法对算法对算法对算法对CLSCLS做了两方面的改进:做了两方面的改进:做了两方面的改进:做了两方面的改进:(1)(1)增加窗口技术;增加窗口技术;增加窗口技术;增加窗口技术;(2)(2)以信息熵的下降速度以信息熵的下降速度以信息熵的下降速度以信息熵的下降速度(

20、信息增益信息增益信息增益信息增益)作为测作为测作为测作为测试属性选择标准。试属性选择标准。试属性选择标准。试属性选择标准。窗口技术窗口技术窗口技术窗口技术:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集(称称称称为窗口为窗口为窗口为窗口)构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能

21、被正确它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能被正确判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重复这个过程得到最终的决策树,复这个过程得到最终的决策树,复这个过程得到最终的决策树,复这个过程得到最终的决策树,显然不同的初始窗口会显然不同的初始窗口会显然不同的初始窗口会显然不同的初始窗口会产生不同的决策树产生不同的决策树产生不同的决策树产生不同的决策树。决策理论与方法-智能决策理论与方法机器学习机器学

22、习归纳学习:决策树归纳学习:决策树信息增益信息增益信息增益信息增益 :设决策树根结点的样本数据为:设决策树根结点的样本数据为:设决策树根结点的样本数据为:设决策树根结点的样本数据为X X=x x1 1,x,x2 2,x xn n,称,称,称,称X X的两个训练子集的两个训练子集的两个训练子集的两个训练子集PXPX(对应类标签为对应类标签为对应类标签为对应类标签为1)1)和和和和NX NX(对应类标签为对应类标签为对应类标签为对应类标签为-1)-1)为为为为正例集正例集正例集正例集和和和和反例集反例集反例集反例集,并记正例,并记正例,并记正例,并记正例集和反例集的样本数分别为集和反例集的样本数分

23、别为集和反例集的样本数分别为集和反例集的样本数分别为P P和和和和N N,则样本空间的,则样本空间的,则样本空间的,则样本空间的信息熵信息熵信息熵信息熵为为为为 假设以随机变量假设以随机变量假设以随机变量假设以随机变量A A作为决策树根的测试属性,作为决策树根的测试属性,作为决策树根的测试属性,作为决策树根的测试属性,A A具有具有具有具有k k个个个个不同的离散值不同的离散值不同的离散值不同的离散值v v1 1,v v2 2,v vk k,它将,它将,它将,它将X X划分为划分为划分为划分为k k个子集,且假个子集,且假个子集,且假个子集,且假设第设第设第设第j j个子集中包含个子集中包含个

24、子集中包含个子集中包含P Pj j个正例,个正例,个正例,个正例,N Nj j个反例,则第个反例,则第个反例,则第个反例,则第j j个子集的个子集的个子集的个子集的信息熵为信息熵为信息熵为信息熵为I I(P(Pj j,N,Nj j)。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树以以以以A A为测试属性的为测试属性的为测试属性的为测试属性的期望信息熵期望信息熵期望信息熵期望信息熵为为为为以以以以A A为根节点的为根节点的为根节点的为根节点的信息增益信息增益信息增益信息增益是:是:是:是:Gain(AGain(A)=)=I I(P P,N N)-)-E E(A

25、 A)vvID3ID3的策略就是的策略就是的策略就是的策略就是选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性。vvID3ID3的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。决策理论与方法-

26、智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树A0A0 A1A1 A2A2 A3A3 类类类类0 00 00 00 0-1-10 00 00 01 1-1-10 00 01 10 0-1-10 00 01 11 1-1-10 01 10 00 01 10 01 10 01 11 10 01 11 10 01 10 01 11 11 11 1A0A0 A1A1 A2A2 A3A3 类类类类1 10 00 00 0-1-11 10 00 01 1-1-11 10 01 10 0-1-11 10 01 11 1-1-11 11 10 00 01 11 11 10 01 11 11

27、 11 11 10 0-1-11 11 11 11 1-1-1类似地,求出类似地,求出E(A1),E(A2),E(A3)。比较它们的大小,选择。比较它们的大小,选择期望信息熵最小的属性作为根结点。依次构造子决策树,直至期望信息熵最小的属性作为根结点。依次构造子决策树,直至所有的训练样本均能够被正确分类。所有的训练样本均能够被正确分类。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树信息增益率信息增益率信息增益率信息增益率:其中:其中:其中:其中:目前一种比较流行的决策树算法目前一种比较流行的决策树算法目前一种比较流行的决策树算法目前一种比较流行的决策树算法C4

28、.5C4.5算法算法算法算法就是以信息增就是以信息增就是以信息增就是以信息增益率作为测试属性的选择条件。益率作为测试属性的选择条件。益率作为测试属性的选择条件。益率作为测试属性的选择条件。vv生成的决策树往往过大,不利于决策时的应用,需要对其生成的决策树往往过大,不利于决策时的应用,需要对其生成的决策树往往过大,不利于决策时的应用,需要对其生成的决策树往往过大,不利于决策时的应用,需要对其剪剪剪剪枝枝枝枝(Pruning)(Pruning),请参阅相关文献。,请参阅相关文献。,请参阅相关文献。,请参阅相关文献。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络 vv神经网络神经

29、网络神经网络神经网络(Artificial Neural Networks)(Artificial Neural Networks)是由具有是由具有是由具有是由具有适应性的简单单元组成的广泛并行互连的网络,它适应性的简单单元组成的广泛并行互连的网络,它适应性的简单单元组成的广泛并行互连的网络,它适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作的组织能够模拟生物神经系统对真实世界物体所作的组织能够模拟生物神经系统对真实世界物体所作的组织能够模拟生物神经系统对真实世界物体所作出的交互反应出的交互反应出的交互反应出的交互反应(T.KoholenT.Kohole

30、n)。vv神经网络分为神经网络分为神经网络分为神经网络分为前向型、反馈型、随机型前向型、反馈型、随机型前向型、反馈型、随机型前向型、反馈型、随机型以及以及以及以及自组织自组织自组织自组织型型型型。我们重点介绍一下前向型网络及其学习算法。我们重点介绍一下前向型网络及其学习算法。我们重点介绍一下前向型网络及其学习算法。我们重点介绍一下前向型网络及其学习算法。决策理论与方法-智能决策理论与方法vv基本神经元及感知机模型基本神经元及感知机模型基本神经元及感知机模型基本神经元及感知机模型:机器学习机器学习神经网络神经网络wwj1j1wwji jiwwjnjny yj jf f(i iwwij ijx x

31、i i-j j)x x1 1x xi ix xn n决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络神经元函数神经元函数神经元函数神经元函数f f的选择的选择的选择的选择线性函数:线性函数:线性函数:线性函数:f(xf(x)=)=x x带限的线性函数:带限的线性函数:带限的线性函数:带限的线性函数:为最大输出。为最大输出。为最大输出。为最大输出。阈值型函数:阈值型函数:阈值型函数:阈值型函数:sigmoidsigmoid函数:函数:函数:函数:决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络 感知机学习算法感知机学习算法感知机学习算法感知机学习算法:(选取选

32、取选取选取f f为阈值函数为阈值函数为阈值函数为阈值函数,学习权值向量,学习权值向量,学习权值向量,学习权值向量w)w)(1)(1)初始化:将权值向量和阈值赋予随机量,初始化:将权值向量和阈值赋予随机量,初始化:将权值向量和阈值赋予随机量,初始化:将权值向量和阈值赋予随机量,t=0t=0(2)(2)连接权的修正:设训练样本的输入为连接权的修正:设训练样本的输入为连接权的修正:设训练样本的输入为连接权的修正:设训练样本的输入为x x1 1,.,.,x xi i,.,.,x xn n,期望输出为,期望输出为,期望输出为,期望输出为y yj j,进行如下计算:,进行如下计算:,进行如下计算:,进行如

33、下计算:计算网络输出:计算网络输出:计算网络输出:计算网络输出:y(ty(t)=)=f f(i iw wij ij(t)x(t)xi i(t)-(t)-j j(t(t)计算期望输出与实际输出的误差:计算期望输出与实际输出的误差:计算期望输出与实际输出的误差:计算期望输出与实际输出的误差:e(te(t)=)=y yj j-y(t-y(t)若若若若e=0e=0,则说明当前样本输出正确,不必更新权值,则说明当前样本输出正确,不必更新权值,则说明当前样本输出正确,不必更新权值,则说明当前样本输出正确,不必更新权值,否则更新权值和阈值否则更新权值和阈值否则更新权值和阈值否则更新权值和阈值 w wij i

34、j(t+1)=(t+1)=w wij ij(t)+(t)+y yj jx xi i(t(t);j j(t+1)=(t+1)=j j(t)+(t)+y yj j t=t+1(t=t+1(为学习率为学习率为学习率为学习率)(3)(3)返回返回返回返回(2)(2),重复所有的训练样本直到所有的样本输出,重复所有的训练样本直到所有的样本输出,重复所有的训练样本直到所有的样本输出,重复所有的训练样本直到所有的样本输出正确。正确。正确。正确。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vv多层前向神经网络多层前向神经网络多层前向神经网络多层前向神经网络:包括一个输入层、一个输出层:包

35、括一个输入层、一个输出层:包括一个输入层、一个输出层:包括一个输入层、一个输出层以及多层隐单元。以及多层隐单元。以及多层隐单元。以及多层隐单元。x x1 1x xi ix xI Iy y1 1y yk ky yKK输入层输入层输入层输入层隐含层隐含层隐含层隐含层输出层输出层输出层输出层u u1 1u ui iu uI Iv v1 1v vj jv vJ Jw wji jiw wkjkj决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vv隐含层的接受与投射隐含层的接受与投射隐含层的接受与投射隐含层的接受与投射(以隐含层第以隐含层第以隐含层第以隐含层第j j个神经元为例个神经元为

36、例个神经元为例个神经元为例):接受:第接受:第接受:第接受:第j j个神经元的值来自于前一层网络个神经元的值来自于前一层网络个神经元的值来自于前一层网络个神经元的值来自于前一层网络(本例是输入层本例是输入层本例是输入层本例是输入层)输出值的加权和,即输出值的加权和,即输出值的加权和,即输出值的加权和,即netnetj j=i iwwji jiu ui i。投射:将投射:将投射:将投射:将第第第第j j个神经元的值经过变换个神经元的值经过变换个神经元的值经过变换个神经元的值经过变换f(netf(netj j),作为下一层,作为下一层,作为下一层,作为下一层网络网络网络网络(本例是输出层本例是输出

37、层本例是输出层本例是输出层)的输入,的输入,的输入,的输入,一般一般一般一般f(xf(x)=1/(1+e)=1/(1+e-x-x)。因此。因此。因此。因此可得到可得到可得到可得到y yk k=j jwwkjkjf(netf(netj j)。上述过程一直持续到所有的输出单元得到输出为止,最上述过程一直持续到所有的输出单元得到输出为止,最上述过程一直持续到所有的输出单元得到输出为止,最上述过程一直持续到所有的输出单元得到输出为止,最后一层的输出就是网络的输出。后一层的输出就是网络的输出。后一层的输出就是网络的输出。后一层的输出就是网络的输出。vv因此,神经网络是一个因此,神经网络是一个因此,神经网

38、络是一个因此,神经网络是一个黑匣子黑匣子黑匣子黑匣子。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vvBPBP算法算法算法算法:BPBP算法的核心是算法的核心是算法的核心是算法的核心是确定确定确定确定WW的调节规则的调节规则的调节规则的调节规则(学习规则学习规则学习规则学习规则),使实际的输出使实际的输出使实际的输出使实际的输出Y Y1 1(t)(t)尽可能接近期望的输出尽可能接近期望的输出尽可能接近期望的输出尽可能接近期望的输出Y(tY(t)。误差函数误差函数误差函数误差函数:对于每种输入模式特征矢量:对于每种输入模式特征矢量:对于每种输入模式特征矢量:对于每种输入模式

39、特征矢量(x(x1 1,x,x2 2,x xI I),),都都都都有对应的输出矢量有对应的输出矢量有对应的输出矢量有对应的输出矢量(y(y1 1,y,y2 2,y yK K)作为训练网络的输出参作为训练网络的输出参作为训练网络的输出参作为训练网络的输出参考基准。如果用符号考基准。如果用符号考基准。如果用符号考基准。如果用符号X Xp p表示第表示第表示第表示第p p个输入模式特征矢量,用个输入模式特征矢量,用个输入模式特征矢量,用个输入模式特征矢量,用符号符号符号符号Y Yp p表示对应的第表示对应的第表示对应的第表示对应的第p p个输出基准矢量。在训练时,同时个输出基准矢量。在训练时,同时个

40、输出基准矢量。在训练时,同时个输出基准矢量。在训练时,同时按输入输出矢量对按输入输出矢量对按输入输出矢量对按输入输出矢量对(X Xp p,Y,Yp p)给出训练集给出训练集给出训练集给出训练集(p=1,P)(p=1,P)。对于。对于。对于。对于每个每个每个每个X Xp p,按照神经元的输入输出公式,一个个一层层地,按照神经元的输入输出公式,一个个一层层地,按照神经元的输入输出公式,一个个一层层地,按照神经元的输入输出公式,一个个一层层地求出网络的实际输出求出网络的实际输出求出网络的实际输出求出网络的实际输出Y Y1 1p p,则误差函数定义为:,则误差函数定义为:,则误差函数定义为:,则误差函

41、数定义为:决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络权重调节策略权重调节策略权重调节策略权重调节策略:学习的目标是使学习的目标是使学习的目标是使学习的目标是使E E最小或不大于规定的误最小或不大于规定的误最小或不大于规定的误最小或不大于规定的误差。从理论上可用求极值的方法获得权值调整的一种典差。从理论上可用求极值的方法获得权值调整的一种典差。从理论上可用求极值的方法获得权值调整的一种典差。从理论上可用求极值的方法获得权值调整的一种典型规则:型规则:型规则:型规则:vv其他最流行的网络结构:径向基函数其他最流行的网络结构:径向基函数其他最流行的网络结构:径向基函数其他最流

42、行的网络结构:径向基函数(RBF)(RBF)神经网络、自组神经网络、自组神经网络、自组神经网络、自组织映射织映射织映射织映射(SOM)(SOM)、HopfieldHopfield网络等。网络等。网络等。网络等。vvMatlabMatlab提供了一套神经网络工具箱提供了一套神经网络工具箱提供了一套神经网络工具箱提供了一套神经网络工具箱(Neural Networks Neural Networks ToolboxToolbox),其中包含了一组,其中包含了一组,其中包含了一组,其中包含了一组newnew函数,用以创建各种类型的函数,用以创建各种类型的函数,用以创建各种类型的函数,用以创建各种类型

43、的神经网络。神经网络。神经网络。神经网络。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vvnewcfnewcfcascade-forward cascade-forward backpropagationbackpropagation work.vvnewelmnewelmElman Elman backpropagationbackpropagation work.vvnewffnewfffeed-forward feed-forward backpropagationbackpropagation work.vvnewfftdnewfftdfeed-forward i

44、nput-delay feed-forward input-delay backpropbackprop work.vvnewgrnnnewgrnngeneralized regression neural network.generalized regression neural network.vvnewhopnewhopHopfield recurrent network.Hopfield recurrent network.vvnewlvqnewlvqlearning vector quantization networklearning vector quantization net

45、workvvnewpnnnewpnnprobabilistic neural network.probabilistic neural network.vvnewrbnewrbradial basis network.radial basis network.vvnewrbenewrbeexact radial basis network.exact radial basis network.vvnewsomnewsomself-organizing mapself-organizing map决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vvMatLabMatLab工具箱

46、之多层前向工具箱之多层前向工具箱之多层前向工具箱之多层前向BPBP网络示例网络示例网络示例网络示例P=0 1 2 3 4 5 6 7 8 9 10;&P=0 1 2 3 4 5 6 7 8 9 10;&输入输入输入输入T=0 1 2 3 4 3 2 1 2 3 4;&T=0 1 2 3 4 3 2 1 2 3 4;&期望输出期望输出期望输出期望输出net=net=newcfnewcf(0 10,5 1,tansig purelin0 10,5 1,tansig purelin););创建一个创建一个创建一个创建一个BPBP网络,最小输入为网络,最小输入为网络,最小输入为网络,最小输入为0 0,

47、最大输入为,最大输入为,最大输入为,最大输入为1010,两隐含层,第,两隐含层,第,两隐含层,第,两隐含层,第一层神经元(一层神经元(一层神经元(一层神经元(5 5个神经元)函数为个神经元)函数为个神经元)函数为个神经元)函数为tansigtansig函数,第二层神函数,第二层神函数,第二层神函数,第二层神经元(经元(经元(经元(1 1个神经元)函数为个神经元)函数为个神经元)函数为个神经元)函数为purelinpurelin函数。函数。函数。函数。Y=Y=sim(net,Psim(net,P);&);&实际输出实际输出实际输出实际输出(未学习未学习未学习未学习)plot(P,T,P,Y,op

48、lot(P,T,P,Y,o)net.trainParam.epochsnet.trainParam.epochs=50;&=50;&迭代次数迭代次数迭代次数迭代次数net=net=train(net,P,Ttrain(net,P,T);&);&网络训练网络训练网络训练网络训练Y=Y=sim(net,Psim(net,P);&);&实际输出实际输出实际输出实际输出(已学习已学习已学习已学习)plot(P,T,P,Y,oplot(P,T,P,Y,o)决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络决策理论与方法-智能决策理论与方法机器学习机器学习支持向量机支持向量机vv提出的背景

49、提出的背景提出的背景提出的背景(针对神经网络的不足针对神经网络的不足针对神经网络的不足针对神经网络的不足)1.1.大量的控制参数。大量的控制参数。大量的控制参数。大量的控制参数。神经网络的结构、传输函数、损失函神经网络的结构、传输函数、损失函神经网络的结构、传输函数、损失函神经网络的结构、传输函数、损失函数、学习参数、训练算法以及训练代数都需要基于反复数、学习参数、训练算法以及训练代数都需要基于反复数、学习参数、训练算法以及训练代数都需要基于反复数、学习参数、训练算法以及训练代数都需要基于反复试验的方法获得。试验的方法获得。试验的方法获得。试验的方法获得。2.2.存在过度拟合问题存在过度拟合问

50、题存在过度拟合问题存在过度拟合问题。许多现实的数据包含大量的噪声,。许多现实的数据包含大量的噪声,。许多现实的数据包含大量的噪声,。许多现实的数据包含大量的噪声,如果神经网络规模太大,并且网络训练时间控制不适当,如果神经网络规模太大,并且网络训练时间控制不适当,如果神经网络规模太大,并且网络训练时间控制不适当,如果神经网络规模太大,并且网络训练时间控制不适当,那么神经网络将不但获得数据中的有用信息而且会得到那么神经网络将不但获得数据中的有用信息而且会得到那么神经网络将不但获得数据中的有用信息而且会得到那么神经网络将不但获得数据中的有用信息而且会得到不希望的噪声。其结果它们只能记忆到训练数据点,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高考资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁