智能决策理论与方法bmsz.pptx

上传人:jix****n11 文档编号:87549143 上传时间:2023-04-16 格式:PPTX 页数:54 大小:988.29KB
返回 下载 相关 举报
智能决策理论与方法bmsz.pptx_第1页
第1页 / 共54页
智能决策理论与方法bmsz.pptx_第2页
第2页 / 共54页
点击查看更多>>
资源描述

《智能决策理论与方法bmsz.pptx》由会员分享,可在线阅读,更多相关《智能决策理论与方法bmsz.pptx(54页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、决策理论与方法决策理论与方法(4)智能决策理论与方法智能决策理论与方法(2)合肥工业大学管理学院合肥工业大学管理学院合肥工业大学管理学院合肥工业大学管理学院Tuesday,March 21,2023Tuesday,March 21,2023智能决策理论与方法智能决策理论与方法1 1、智能决策理论的形成背景、智能决策理论的形成背景、智能决策理论的形成背景、智能决策理论的形成背景2 2、知识发现、知识发现、知识发现、知识发现3 3、粗糙集理论、粗糙集理论、粗糙集理论、粗糙集理论4 4、机器学习、机器学习、机器学习、机器学习决策理论与方法-智能决策理论与方法机器学习机器学习vv机器学习机器学习机器学

2、习机器学习是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学与技术原理建立各种学习模型,从根本上提高计算与技术原理建立各种学习模型,从根本上提高计算与技术

3、原理建立各种学习模型,从根本上提高计算与技术原理建立各种学习模型,从根本上提高计算机智能和学习能力。机智能和学习能力。机智能和学习能力。机智能和学习能力。研究内容研究内容研究内容研究内容是根据生理学、认知是根据生理学、认知是根据生理学、认知是根据生理学、认知科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和

4、学习方法,研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化vv归纳学习归纳学习归纳学习归纳学习是指从给定的关于某个概念的一系列已知是指从给定的关于某个概念的一系列已知是指从给定的关于某个概念的一系列已知是指从给定的关于某个概念的一系列已知的正例和反例中归纳出一个通用

5、的概念描述。的正例和反例中归纳出一个通用的概念描述。的正例和反例中归纳出一个通用的概念描述。的正例和反例中归纳出一个通用的概念描述。vv泛化泛化泛化泛化(Generalization)(Generalization)是用来扩展一假设的语义信息,是用来扩展一假设的语义信息,是用来扩展一假设的语义信息,是用来扩展一假设的语义信息,使其能够包含更多的正例。泛化所得到的结论并不使其能够包含更多的正例。泛化所得到的结论并不使其能够包含更多的正例。泛化所得到的结论并不使其能够包含更多的正例。泛化所得到的结论并不总是正确的。总是正确的。总是正确的。总是正确的。vv常用泛化方法常用泛化方法常用泛化方法常用泛化

6、方法:将常量转为变量规则将常量转为变量规则将常量转为变量规则将常量转为变量规则:对于概念:对于概念:对于概念:对于概念F F(v v),如果,如果,如果,如果v v的某些取值的某些取值的某些取值的某些取值a a,b b,使使使使F F(v v)成立,则这些概念可被泛化为:对于成立,则这些概念可被泛化为:对于成立,则这些概念可被泛化为:对于成立,则这些概念可被泛化为:对于v v的所有的所有的所有的所有值,值,值,值,F F(v v)均成立:均成立:均成立:均成立:决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化消除条件规则消除条件规则消除条件规则消除条件规则:一个合

7、取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛化。化。化。化。添加选项添加选项添加选项添加选项:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足概念而使该概念泛化。该规则特别有用的方式是通过扩概念而使该概念泛

8、化。该规则特别有用的方式是通过扩概念而使该概念泛化。该规则特别有用的方式是通过扩概念而使该概念泛化。该规则特别有用的方式是通过扩展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。将合取转为析取规则将合取转为析取规则将合取转为析取规则将合取转为析取规则决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化爬升概念树规则爬升概念树规则爬升概念树规则爬升概念树规则:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层:通过爬升概念树,低

9、层概念被较高层概念替代。设概念替代。设概念替代。设概念替代。设A A表示信息系统中的某个属性如表示信息系统中的某个属性如表示信息系统中的某个属性如表示信息系统中的某个属性如AnimalAnimal,a a,b b,分别为对象分别为对象分别为对象分别为对象u u,v v,在属性在属性在属性在属性A A上的取值,若上的取值,若上的取值,若上的取值,若s s是概念树是概念树是概念树是概念树上上上上a a,b b,的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:Nick Ni

10、ck等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。vv过度泛化问题过度泛化问题过度泛化问题过度泛化问题当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终止泛化算法的策略。止泛化

11、算法的策略。止泛化算法的策略。止泛化算法的策略。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化动物哺乳类鸟类企鹅食肉类蹄类飞禽类走禽类虎印度豹长颈鹿斑马信天翁鹰驼鸟第1层第2层第3层第4层决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv决策树学习决策树学习决策树学习决策树学习是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。所谓决策树是所谓决策树是所谓决策树是所谓决策树是一个类似流程图的树结构,其中树的内结点对应属性或属性一个类似流程图的树结构,其中树的内

12、结点对应属性或属性一个类似流程图的树结构,其中树的内结点对应属性或属性一个类似流程图的树结构,其中树的内结点对应属性或属性集,每个分枝表示检验结果集,每个分枝表示检验结果集,每个分枝表示检验结果集,每个分枝表示检验结果(属性值属性值属性值属性值),树枝上的叶结点代表,树枝上的叶结点代表,树枝上的叶结点代表,树枝上的叶结点代表所关心的因变量的取值所关心的因变量的取值所关心的因变量的取值所关心的因变量的取值(类标签类标签类标签类标签),最顶端的结点称为根结点。,最顶端的结点称为根结点。,最顶端的结点称为根结点。,最顶端的结点称为根结点。vv决策树学习采用自顶向下的递归方式,在决策树的内部结点决策树

13、学习采用自顶向下的递归方式,在决策树的内部结点决策树学习采用自顶向下的递归方式,在决策树的内部结点决策树学习采用自顶向下的递归方式,在决策树的内部结点进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分支,在叶结点得到结论。支,在叶结点得到结论。支,在叶结点得到结论。支,在叶结点得到结论。从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的一条路径,这条路径就是一条决策一条

14、路径,这条路径就是一条决策一条路径,这条路径就是一条决策一条路径,这条路径就是一条决策“规则规则规则规则”。vv当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。所有所有所有所有的决策树都有一等价的的决策树都有一等价的的决策树都有一等价的的决策树都有

15、一等价的ANNANN表示;也可用表示;也可用表示;也可用表示;也可用SVMSVM实现相同的实现相同的实现相同的实现相同的功能。功能。功能。功能。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树A0A0 A1A1 A2A2 A3A3 类类类类0 00 00 00 0-1-10 00 00 01 1-1-10 00 01 10 0-1-10 00 01 11 1-1-10 01 10 00 01 10 01 10 01 11 10 01 11 10 01 10 01 11 11 11 1A0A0A1A1 A2A2 A3A3 类类类类1 10 00 00 0-1-1

16、1 10 00 01 1-1-11 10 01 10 0-1-11 10 01 11 1-1-11 11 10 00 01 11 11 10 01 11 11 11 11 10 0-1-11 11 11 11 1-1-1A0A0A1A1A1A1A2A2-1-11 1-1-11 1-1-11 10 00 01 10 01 11 10 0决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv概念学习系统概念学习系统概念学习系统概念学习系统CLS(Hunt)CLS(Hunt):从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新:从

17、一颗空的决策树出发,添加新的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地将训练实例分类为止。将训练实例分类为止。将训练实例分类为止。将训练实例分类为止。产生根节点产生根节点产生根节点产生根节点T T,T T包含所有的训练样本;包含所有的训练样本;包含所有的训练样本;包含所有的训练样本;如果如果如果如果T T中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有中的所有样本都是正例,

18、则产生一个标有“1”“1”的节点作为的节点作为的节点作为的节点作为T T的子节点,并结束;的子节点,并结束;的子节点,并结束;的子节点,并结束;如果如果如果如果T T中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有“-1”“-1”的节点作的节点作的节点作的节点作为为为为T T的子节点,并结束;的子节点,并结束;的子节点,并结束;的子节点,并结束;选择一个属性选择一个属性选择一个属性选择一个属性A A(如何选如何选如何选如何选?)?),根据该属性的不同取值,根据该属性的不同取值,根据该属性的不同取值,

19、根据该属性的不同取值v v1 1,v v2 2,v vn n将将将将T T中的训练集划分为中的训练集划分为中的训练集划分为中的训练集划分为n n个子集,并根据这个子集,并根据这个子集,并根据这个子集,并根据这n n个子集建立个子集建立个子集建立个子集建立T T的的的的n n个子个子个子个子节点节点节点节点T T1 1,T,T2 2,T,Tn n,并分别以,并分别以,并分别以,并分别以A=A=v vi i作为从作为从作为从作为从T T到到到到T Ti i的分支符号;的分支符号;的分支符号;的分支符号;以每个子节点以每个子节点以每个子节点以每个子节点T Ti i为根建立新的子树。为根建立新的子树。

20、为根建立新的子树。为根建立新的子树。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树A0A0A1A1A1A1A2A2-1-11 1-1-11 1-1-11 10 00 01 10 01 11 10 0T2T2T1T1T11T11T12T12T111T111T112T112T21T21T22T22T决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vvID3ID3算法算法算法算法(Quinlan)(Quinlan):ID3ID3算法对算法对算法对算法对CLSCLS做了两方面的改进:做了两方面的改进:做了两方面的改进:做了两方面的改

21、进:(1)(1)增加窗口技术;增加窗口技术;增加窗口技术;增加窗口技术;(2)(2)以信息熵的下降速度以信息熵的下降速度以信息熵的下降速度以信息熵的下降速度(信息增益信息增益信息增益信息增益)作为测试作为测试作为测试作为测试属性选择标准。属性选择标准。属性选择标准。属性选择标准。窗口技术窗口技术窗口技术窗口技术:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集(称称称称为窗口为窗口为窗口为窗口)构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,

22、如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能被正确判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重复这个过程得到最终的决策树,复这个过程得到最终的决策树,复这个过程得到最终的决策树,复这个过程得到最终的决策树,显然不同的初始窗口会显然不同的初始窗

23、口会显然不同的初始窗口会显然不同的初始窗口会产生不同的决策树。产生不同的决策树。产生不同的决策树。产生不同的决策树。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树信息增益信息增益信息增益信息增益 :设决策树根结点的样本数据为:设决策树根结点的样本数据为:设决策树根结点的样本数据为:设决策树根结点的样本数据为X X=x x1 1,x,x2 2,x,xn n,称,称,称,称X X的两个训练子集的两个训练子集的两个训练子集的两个训练子集PXPX(对应类标签为对应类标签为对应类标签为对应类标签为1)1)和和和和NX NX(对应类对应类对应类对应类标签为标签为标签为标

24、签为-1)-1)为为为为正例集正例集正例集正例集和和和和反例集反例集反例集反例集,并记正例集和反例集的样,并记正例集和反例集的样,并记正例集和反例集的样,并记正例集和反例集的样本数分别为本数分别为本数分别为本数分别为P P和和和和N N,则样本空间的,则样本空间的,则样本空间的,则样本空间的信息熵信息熵信息熵信息熵为为为为 假设以随机变量假设以随机变量假设以随机变量假设以随机变量A A作为决策树根的测试属性,作为决策树根的测试属性,作为决策树根的测试属性,作为决策树根的测试属性,A A具有具有具有具有k k个个个个不同的离散值不同的离散值不同的离散值不同的离散值v v1 1,v v2 2,v

25、vk k,它将,它将,它将,它将X X划分为划分为划分为划分为k k个子集,且假设个子集,且假设个子集,且假设个子集,且假设第第第第j j个子集中包含个子集中包含个子集中包含个子集中包含P Pj j个正例,个正例,个正例,个正例,N Nj j个反例,则第个反例,则第个反例,则第个反例,则第j j个子集的信个子集的信个子集的信个子集的信息熵为息熵为息熵为息熵为I I(P(Pj j,N,Nj j)。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树以以以以A A为测试属性的为测试属性的为测试属性的为测试属性的期望信息熵期望信息熵期望信息熵期望信息熵为为为为以以以以A

26、 A为根节点的为根节点的为根节点的为根节点的信息增益信息增益信息增益信息增益是:是:是:是:Gain(A)=Gain(A)=I I(P P,N N)-)-E E(A A)vvID3ID3的策略就是的策略就是的策略就是的策略就是选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性。vvID3ID3的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输出分支多并不表示该测试属性有

27、更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树信息增益率信息增益率信息增益率信息增益率:其中:其中:其中:其中:目前一种比较流行的决策树算法目前一种比较流行的决策树算法目前一种比较流行的决策树算法目前一种比较流行的决策树算法C4.5C4.5算法算法算法算法就是以信息增就是以信息增就是以信息增就是以信息增益率作为测试属性的选择条件。益率作为测试属性的选择条件。益率作为测试属性的选择条件。益率作为测试属性的选择条件。

28、vv生成的决策树往往过大,不利于决策时的应用,需要对其生成的决策树往往过大,不利于决策时的应用,需要对其生成的决策树往往过大,不利于决策时的应用,需要对其生成的决策树往往过大,不利于决策时的应用,需要对其剪剪剪剪枝枝枝枝(Pruning)(Pruning),请参阅相关文献。,请参阅相关文献。,请参阅相关文献。,请参阅相关文献。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv示例计算示例计算示例计算示例计算确定根结点确定根结点确定根结点确定根结点vvI(PI(P,N)=-10/16log(10/16)-6/16log(6/16)=-5/8log5-N)=-1

29、0/16log(10/16)-6/16log(6/16)=-5/8log5-3/8log3+3=0.95443/8log3+3=0.9544vvE(A0)=1/2(-4/8log(4/8)-4/8log(4/8)+1/2(-E(A0)=1/2(-4/8log(4/8)-4/8log(4/8)+1/2(-6/8log(6/8)-2/8log(2/8)=3/2-3/8log3=0.90566/8log(6/8)-2/8log(2/8)=3/2-3/8log3=0.9056vvE(A1)=1-3/8log3=0.4084E(A1)=1-3/8log3=0.4084vvE(A2)=1-3/16log3

30、=0.9056E(A2)=1-3/16log3=0.9056vvE(A3)=3-5/8log5-3/8log3=0.9544E(A3)=3-5/8log5-3/8log3=0.9544vv因此选因此选因此选因此选A1A1作为起始根结点。作为起始根结点。作为起始根结点。作为起始根结点。A3A3没有改变任何信息量,没有改变任何信息量,没有改变任何信息量,没有改变任何信息量,无分类价值,可以删除。无分类价值,可以删除。无分类价值,可以删除。无分类价值,可以删除。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树确定子树根结点确定子树根结点确定子树根结点确定子树根结点v

31、v当当当当A1=0A1=0时,所有对象类标签均为时,所有对象类标签均为时,所有对象类标签均为时,所有对象类标签均为-1-1,此分支结束。,此分支结束。,此分支结束。,此分支结束。vv当当当当A1=1A1=1时,时,时,时,I(P,N)=-6/8log6/8-2/8log2/8=2-3/4log3=0.8112I(P,N)=-6/8log6/8-2/8log2/8=2-3/4log3=0.8112E(A0)=E(A2)=1/2=0.5E(A0)=E(A2)=1/2=0.5E(A3)=2-3/4log3=0.8112E(A3)=2-3/4log3=0.8112vvA0A0,A2A2具有相同的分类能

32、力,任取一个均可具有相同的分类能力,任取一个均可具有相同的分类能力,任取一个均可具有相同的分类能力,任取一个均可。若取。若取。若取。若取A0A0,则,则,则,则当当当当A0=0A0=0时,所有对象类标签均为时,所有对象类标签均为时,所有对象类标签均为时,所有对象类标签均为+1+1,此分支结束。,此分支结束。,此分支结束。,此分支结束。当当当当A0=1A0=1时,时,时,时,vvA2=0A2=0,类标签为,类标签为,类标签为,类标签为+1+1;vvA2=1A2=1,类标签为,类标签为,类标签为,类标签为-1-1。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树A

33、1A1A0A01 10 0-1-1+1+1A2A2+1+10 01 1-1-10 01 1决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络 vv神经网络神经网络神经网络神经网络(Artificial Neural Networks)(Artificial Neural Networks)是由具有适是由具有适是由具有适是由具有适应性的简单单元组成的广泛并行互连的网络,它的应性的简单单元组成的广泛并行互连的网络,它的应性的简单单元组成的广泛并行互连的网络,它的应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出组织能够模拟生物神经系统对真实世界

34、物体所作出组织能够模拟生物神经系统对真实世界物体所作出组织能够模拟生物神经系统对真实世界物体所作出的交互反应的交互反应的交互反应的交互反应(T.KoholenT.Koholen)。vv神经网络分为神经网络分为神经网络分为神经网络分为前向型、反馈型、随机型前向型、反馈型、随机型前向型、反馈型、随机型前向型、反馈型、随机型以及以及以及以及自组织自组织自组织自组织型型型型。我们重点介绍一下前向型网络及其学习算法。我们重点介绍一下前向型网络及其学习算法。我们重点介绍一下前向型网络及其学习算法。我们重点介绍一下前向型网络及其学习算法。决策理论与方法-智能决策理论与方法vv基本神经元及感知机模型基本神经元

35、及感知机模型基本神经元及感知机模型基本神经元及感知机模型:机器学习机器学习神经网络神经网络wwj1j1wwji jiwwjnjny yj jf f(i iwwij ijx xi i-j j)x x1 1x xi ix xn n决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络神经元函数神经元函数神经元函数神经元函数f f的选择的选择的选择的选择线性函数:线性函数:线性函数:线性函数:f(x)=f(x)=x x带限的线性函数:带限的线性函数:带限的线性函数:带限的线性函数:为最大输出。为最大输出。为最大输出。为最大输出。阈值型函数:阈值型函数:阈值型函数:阈值型函数:sigmoi

36、dsigmoid函数:函数:函数:函数:决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络 感知机学习算法:感知机学习算法:感知机学习算法:感知机学习算法:(选取选取选取选取f f为阈值函数,学习权值向量为阈值函数,学习权值向量为阈值函数,学习权值向量为阈值函数,学习权值向量w)w)(1)(1)初始化:将权值向量和阈值赋予随机量,初始化:将权值向量和阈值赋予随机量,初始化:将权值向量和阈值赋予随机量,初始化:将权值向量和阈值赋予随机量,t=0t=0(2)(2)连接权的修正:设训练样本的输入为连接权的修正:设训练样本的输入为连接权的修正:设训练样本的输入为连接权的修正:设训练样本

37、的输入为x x1 1,.,x,.,xi i,.,x,.,xn n,期望输,期望输,期望输,期望输出为出为出为出为y yj j(=(=1)1),进行如下计算:,进行如下计算:,进行如下计算:,进行如下计算:计算网络输出计算网络输出计算网络输出计算网络输出(=(=1)1):y(t)=y(t)=f f(i iw wij ij(t)x(t)xi i(t)-(t)-j j(t)(t)计算期望输出与实际输出的误差:计算期望输出与实际输出的误差:计算期望输出与实际输出的误差:计算期望输出与实际输出的误差:e(t)=ye(t)=yj j-y(t)-y(t)若若若若e=0e=0,则说明当前样本输出正确,不必更新

38、权值,否,则说明当前样本输出正确,不必更新权值,否,则说明当前样本输出正确,不必更新权值,否,则说明当前样本输出正确,不必更新权值,否则更新权值和阈值则更新权值和阈值则更新权值和阈值则更新权值和阈值 w wij ij(t+1)=w(t+1)=wij ij(t)+(t)+y yj jx xi i(t)(t);j j(t+1)=(t+1)=j j(t)+(t)+y yj j t=t+1(t=t+1(为学习率为学习率为学习率为学习率)(3)(3)返回返回返回返回(2)(2),重复所有的训练样本直到所有的样本输出正确。,重复所有的训练样本直到所有的样本输出正确。,重复所有的训练样本直到所有的样本输出正

39、确。,重复所有的训练样本直到所有的样本输出正确。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vv多层前向神经网络多层前向神经网络多层前向神经网络多层前向神经网络:包括一个输入层、一个输出层:包括一个输入层、一个输出层:包括一个输入层、一个输出层:包括一个输入层、一个输出层以及多层隐单元。以及多层隐单元。以及多层隐单元。以及多层隐单元。x x1 1x xi ix xI Iy y1 1y yk ky yKK输入层输入层输入层输入层隐含层隐含层隐含层隐含层输出层输出层输出层输出层u u1 1u ui iu uI Iv v1 1v vj jv vJ Jw wji jiw wkjk

40、j决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vv隐含层的接受与投射隐含层的接受与投射隐含层的接受与投射隐含层的接受与投射(以隐含层第以隐含层第以隐含层第以隐含层第j j个神经元为例个神经元为例个神经元为例个神经元为例):接受:第接受:第接受:第接受:第j j个神经元的值来自于前一层网络个神经元的值来自于前一层网络个神经元的值来自于前一层网络个神经元的值来自于前一层网络(本例是输入层本例是输入层本例是输入层本例是输入层)输出值的加权和,即输出值的加权和,即输出值的加权和,即输出值的加权和,即netnetj j=i iwwji jiu ui i。投射:将投射:将投射:将投射

41、:将第第第第j j个神经元的值经过变换个神经元的值经过变换个神经元的值经过变换个神经元的值经过变换f(netf(netj j),作为下一层,作为下一层,作为下一层,作为下一层网络网络网络网络(本例是输出层本例是输出层本例是输出层本例是输出层)的输入,的输入,的输入,的输入,一般一般一般一般f(x)=1/(1+ef(x)=1/(1+e-x-x)。因此可。因此可。因此可。因此可得到得到得到得到y yk k=j jwwkjkjf(netf(netj j)。上述过程一直持续到所有的输出单元得到输出为止,最上述过程一直持续到所有的输出单元得到输出为止,最上述过程一直持续到所有的输出单元得到输出为止,最上

42、述过程一直持续到所有的输出单元得到输出为止,最后一层的输出就是网络的输出。后一层的输出就是网络的输出。后一层的输出就是网络的输出。后一层的输出就是网络的输出。vv因此,神经网络是一个因此,神经网络是一个因此,神经网络是一个因此,神经网络是一个黑匣子黑匣子黑匣子黑匣子。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vvBPBP算法算法算法算法:BPBP算法的核心是算法的核心是算法的核心是算法的核心是确定确定确定确定WW的调节规则的调节规则的调节规则的调节规则(学习规则学习规则学习规则学习规则),使实际的输出使实际的输出使实际的输出使实际的输出Y Y1 1(t)(t)尽可能接近

43、期望的输出尽可能接近期望的输出尽可能接近期望的输出尽可能接近期望的输出Y(t)Y(t)。误差函数误差函数误差函数误差函数:对于每种输入模式特征矢量:对于每种输入模式特征矢量:对于每种输入模式特征矢量:对于每种输入模式特征矢量(x(x1 1,x,x2 2,x,xI I),),都有都有都有都有对应的输出矢量对应的输出矢量对应的输出矢量对应的输出矢量(y(y1 1,y,y2 2,y,yK K)作为训练网络的输出参考基作为训练网络的输出参考基作为训练网络的输出参考基作为训练网络的输出参考基准。如果用符号准。如果用符号准。如果用符号准。如果用符号X Xp p表示第表示第表示第表示第p p个输入模式特征矢

44、量,用符号个输入模式特征矢量,用符号个输入模式特征矢量,用符号个输入模式特征矢量,用符号Y Yp p表示对应的第表示对应的第表示对应的第表示对应的第p p个输出基准矢量。在训练时,同时按输个输出基准矢量。在训练时,同时按输个输出基准矢量。在训练时,同时按输个输出基准矢量。在训练时,同时按输入输出矢量对入输出矢量对入输出矢量对入输出矢量对(X(Xp p,Y,Yp p)给出训练集给出训练集给出训练集给出训练集(p=1,P)(p=1,P)。对于每个。对于每个。对于每个。对于每个X Xp p,按照神经元的输入输出公式,一个个一层层地求出网,按照神经元的输入输出公式,一个个一层层地求出网,按照神经元的输

45、入输出公式,一个个一层层地求出网,按照神经元的输入输出公式,一个个一层层地求出网络的实际输出络的实际输出络的实际输出络的实际输出Y Y1 1p p,则误差函数定义为:,则误差函数定义为:,则误差函数定义为:,则误差函数定义为:决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络权重调节策略权重调节策略权重调节策略权重调节策略:学习的目标是使学习的目标是使学习的目标是使学习的目标是使E E最小或不大于规定的误最小或不大于规定的误最小或不大于规定的误最小或不大于规定的误差。从理论上可用求极值的方法获得权值调整的一种典差。从理论上可用求极值的方法获得权值调整的一种典差。从理论上可用求极

46、值的方法获得权值调整的一种典差。从理论上可用求极值的方法获得权值调整的一种典型规则:型规则:型规则:型规则:vv其他最流行的网络结构:径向基函数其他最流行的网络结构:径向基函数其他最流行的网络结构:径向基函数其他最流行的网络结构:径向基函数(RBF)(RBF)神经网络、自组神经网络、自组神经网络、自组神经网络、自组织映射织映射织映射织映射(SOM)(SOM)、HopfieldHopfield网络等。网络等。网络等。网络等。vvMatlabMatlab提供了一套神经网络工具箱提供了一套神经网络工具箱提供了一套神经网络工具箱提供了一套神经网络工具箱(Neural Networks Neural N

47、etworks ToolboxToolbox),其中包含了一组,其中包含了一组,其中包含了一组,其中包含了一组newnew函数,用以创建各种类型的函数,用以创建各种类型的函数,用以创建各种类型的函数,用以创建各种类型的神经网络。神经网络。神经网络。神经网络。决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vvnewcfcascade-forward backpropagation network.newcfcascade-forward backpropagation network.vvnewelmElman backpropagation network.newelmEl

48、man backpropagation network.vvnewfffeed-forward backpropagation network.newfffeed-forward backpropagation network.vvnewfftdfeed-forward input-delay backprop network.newfftdfeed-forward input-delay backprop network.vvnewgrnngeneralized regression neural network.newgrnngeneralized regression neural ne

49、twork.vvnewhopHopfield recurrent network.newhopHopfield recurrent network.vvnewlvqlearning vector quantization networknewlvqlearning vector quantization networkvvnewpnnprobabilistic neural network.newpnnprobabilistic neural network.vvnewrbradial basis network.newrbradial basis network.vvnewrbeexact

50、radial basis network.newrbeexact radial basis network.vvnewsomself-organizing mapnewsomself-organizing map决策理论与方法-智能决策理论与方法机器学习机器学习神经网络神经网络vvMatLabMatLab工具箱之多层前向工具箱之多层前向工具箱之多层前向工具箱之多层前向BPBP网络示例网络示例网络示例网络示例P=0 1 2 3 4 5 6 7 8 9 10;&P=0 1 2 3 4 5 6 7 8 9 10;&输入输入输入输入T=0 1 2 3 4 3 2 1 2 3 4;&T=0 1 2 3

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 施工组织

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁