决策树算法.pptx

上传人:修**** 文档编号:85113210 上传时间:2023-04-09 格式:PPTX 页数:36 大小:350.09KB
返回 下载 相关 举报
决策树算法.pptx_第1页
第1页 / 共36页
决策树算法.pptx_第2页
第2页 / 共36页
点击查看更多>>
资源描述

《决策树算法.pptx》由会员分享,可在线阅读,更多相关《决策树算法.pptx(36页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、就业工场数据中心第七章 决策树和决策规则本章目标n n分析解决分类问题的基于逻辑的方法的特性.n n描述决策树和决策规则在最终分类模型中的表述之间的区别.n n介绍C4.5算法.n n了解采用修剪方法降低决策树和决策规则的复杂度.就业工场数据中心n n决策树和决策规则是解决实际应用中分类问题的数据挖掘方法。n n一般来说,分类是把数据项映射到其中一个事先定义的类中的这样一个学习函数的过程。由一组输入的属性值向量(也叫属性向量)和相应的类,用基于归纳学习算法得出分类。n n学习的目标是构建一个分类模型,通常也叫分类器。它可以根据有效的属性输入值预测一些实体(所给样本)的类。是一个在样本其他属性已

2、知的情况下预测另外一个属性(样本的类)的模型(分类的结果)。就业工场数据中心7.1 决策树n n从数据中生成分类器的一个特别有效的方法是生成一个决策树。它是一种基于逻辑的方法,通过一组输入-输出样本构建决策树的有指导学习方法。n n决策树包含属性已被检验的节点,一个节点的输出分枝和该节点的所有可能的检验结果相对应。就业工场数据中心n n图7-2是一个简单的决策树。该问题有两个属性X,Y。所有属性值X1和YB的样本属于类2。不论属性Y的值是多少,值X 1的样本都属于类1。就业工场数据中心n n对于树中的非叶节点,可以沿着分枝继续分区样本,每一个节点得到它相应的样本子集。n n生成决策树的一个著名

3、的算法是Quinlan的ID3算法,C4.5是它改进版。就业工场数据中心n nID3算法的基本思路:1.1.从树的根节点处的所有训练样本开始,选取一个属性来划分这些样本。对属性的每一个值产生一分枝。分枝属性值的相应样本子集被移到新生成的子节点上。2.2.这个算法递归地应用于每个子节点,直到一个节点上的所有样本都分区到某个类中。3.3.到达决策树的叶节点的每条路径表示一个分类规则。就业工场数据中心n n该算法的关键性决策是对节点属性值的选择。ID3和C4.5算法的属性选择的基础是基于使节点所含的信息熵最小化。n n基于信息论的方法坚持对数据库中一个样本进行分类时所做检验的数量最小。ID3的属性选

4、择是根据一个假设,即:决策树的复杂度和所给属性值表达的信息量是密切相关的。基于信息的试探法选择的是可以给出最高信息的属性,即这个属性是使样本分类的结果子树所需的信息最小。就业工场数据中心7.2 C4.5算法:生成一个决策树n nC4.5算法最重要的部分是由一组训练样本生成一个初始决策树的过程。决策树可以用来对一个新样本进行分类,这种分类从该树的根节点开始,然后移动样本直至达叶节点。在每个非叶决策点处,确定该节点的属性检验结果,把注意力转移到所选择子树的根节点上。就业工场数据中心n n例如,如图7-3a为决策树分类模型,待分类有样本如图7-3b所示,由决策树分类模型可得出待分类样本为类2。(节点

5、A,C,F(叶节点)就业工场数据中心n nC4.5算法的构架是基于亨特的CLS方法,其通过一组训练样本T构造一个决策树。用C1,C2,CK来表示这些类,集合T所含的内容信息有3种可能性:1.1.T包含一个或更多的样本,全部属于单个的类Cj。那么T的决策树是由类Cj标识的一个叶节点。2.2.T不包含样本。决策树也是一个叶,但和该叶关联的类由不同于T的信息决定,如T中的绝大多数类。就业工场数据中心3.T包含属于不同类的样本。这种情况下,是把T精化成朝向一个单类样本集的样本子集。根据某一属性,选择具有一个或更多互斥的输出O1,O2,On的合适检验。T被分区成子集T1,T2,Tn。T的决策树包含标识检

6、验的一个决策点和每个可能输出的一个分枝(如图7-3a中的A,B和C节点)就业工场数据中心n n假设选择有n个输出(所给属性的n个值)的检验,把训练样本集T分区成子集T1,T2,Tn。仅有的指导信息是在T和它的子集Ti中的类分布。n n如果S是任意样本集,设freq(Ci,S)代表S中属于Ci的样本数量,|S|表示集合S中的样本数量。n nID3算法的属性选择的检验方法采用增益标准,它基于信息论中熵的概念。n n集合S的期望信息(熵)如下:n nT被分区之后的一个相似度标准,T按照一个属性检验X的几个输出进行分区。所需信息为子集的熵的加权和:n n分区所对应的信息增益:n n上式度量了按照检验X

7、进行分区的T所得到的信息。该增益标准选择了使Gain(X)最大化的检验X,即此标准选择的具有最高增益的那个属性。n n例如:给定训练样本如表7-1,14个样本,3个属性,分为两个类。就业工场数据中心n n9个样本属于类1,5个属于类2,因此分区前的熵为(基于类的熵计算)info(T)=-9/14log2(9/14)-5/14log2(5/14)=0.940n n按属性1分区可得子集的熵的加权和:infoinfox1x1(T T)=5/14(-2/5)=5/14(-2/5loglog2 2(2/5)-3/5(2/5)-3/5loglog2 2(3/5)(3/5)+4/14(-4/4 +4/14(

8、-4/4loglog2 2(4/4)-0/4(4/4)-0/4loglog2 2(0/4)(0/4)+5/14(-3/5 +5/14(-3/5loglog2 2(3/5)-2/5(3/5)-2/5loglog2 2(2/5)(2/5)=0.694 =0.694 相应的增益:Gain(x1)=0.94-0.694=0.246就业工场数据中心n n按属性3分区可得子集的熵的加权和:infoinfox2x2(T T)=6/14(-3/6)=6/14(-3/6loglog2 2(3/6)-3/6(3/6)-3/6loglog2 2(3/6)(3/6)+8/14(-6/8 +8/14(-6/8loglo

9、g2 2(6/8)-2/8(6/8)-2/8loglog2 2(2/8)(2/8)=0.892 =0.892 相应的增益:Gain(x2)=0.94-0.892=0.048n n由于属性2是数值型的连续数据,不能简单按上面方式计算。下面先介绍一下C4.5算法中一般包含3种类型的检验结构:1.离散值的“标准”检验,对属性的每个可能值有一个分枝和输出。就业工场数据中心2.如果属性Y有连续的数值,通过将该值和阈值Z比较,用输出YZ和YZ定义二元检验。3.基于离散值的更复杂的检验,该检验中属性的每个可能值被分配到许多易变的组中,每组都有一个输出和分枝。n n数值型属性检验:对于属性Y,按训练样本进行分

10、类,分类顺序用v1,v2,vm表示,因此对Y仅有m-1个分区,要系统在检查所有分区以求得最优分区。通常选择区间的中点为阈值。就业工场数据中心n n而C4.5算法选择vi,vi+1的最小值vi为阈值。这确保出现结果中阈值属于数据库的一个值。n n对于上例,属性2的值的集合是:65,70,75,78,80,85,90,95,96 可能的阈值Z的集合是:65,70,75,78,80,85,90,95。从这8个值里选择最优的阈值(最高信息增益),最优的Z=80。(如果计算?)就业工场数据中心n n对应属性2的检验3(属性280和属性280)的信息增益计算:infoinfox3x3(T T)=9/14(

11、-7/9)=9/14(-7/9loglog2 2(7/9)-2/9(7/9)-2/9loglog2 2(2/9)(2/9)+5/14(-2/5 +5/14(-2/5loglog2 2(2/5)-3/5(2/5)-3/5loglog2 2(3/5)(3/5)=0.837 =0.837 相应的增益:Gain(x3)=0.94-0.837=0.103n n属性1的增益最高,选择该属性进行首次分区。每个属性值具有一个分枝,产生3个分枝,如图7-4所示.就业工场数据中心n n对每个分枝重复上述步骤选择检验和最优化过程。对于子节点T2子集,4个样本都是类1,该节点是叶节点。就业工场数据中心n n对于余下的

12、节点,在T1中有5个样本,最优检验有两个选择:属性270和属性270的检验x4。info(T1)=-2/5log2(2/5)-3/5log2(3/5)=0.940infoinfox4x4(T T1 1)=2/5(-2/2)=2/5(-2/2loglog2 2(2/2)-0/2(2/2)-0/2loglog2 2(0/2)(0/2)+3/5(-0/3 +3/5(-0/3loglog2 2(0/3)-3/3(0/3)-3/3loglog2 2(3/3)(3/3)=0 =0Gain(x3)=0.94-0=0.94n n产生两个分枝为最终叶节点,分枝中的数据子集属于同一类。就业工场数据中心n n对根节

13、点下的T3子集进行同样的计算,按属性3=真和属性3=假检验,产生两个叶节点。图7-5表示数据库T的最终决策树。就业工场数据中心n n另外,决策树可以用可执行代码(或伪代码)的形式表示。图7-6用伪代码给出了上面例子的决策树。n n 增益标准对具有许多输出的检验有严重的偏差,根据info(S)的定义,指定一个附加的参数:n n这表示通过把集T分区成n个子集Ti而生成的潜在信息。现在,定义一个新的增益标准:Gain-radio(X)=gain(X)/Split-info(X)就业工场数据中心7.3 未知属性值n nC4.5算法的前一版本是基于所有属性值都已确定这一假设。但是在一个数据库,经常会缺少

14、某些样本的一些属性。由于该属性值与某个样本是不相关的,或搜集样本时没有对它进行记录,或在数据录入时有人为的误差,就可能出现属性值丢失的情况。就业工场数据中心n n解决丢失值问题的两种方法:1.抛弃数据库中有丢失数据的样本。2.定义一个新的算法或改进现有算法来处理丢失的数据。n n第一种解决方案很简单,但当样本集中存在大量丢失值时不能采用这种方法。n n在C4.5算法中,有未知值的样本是按照已知值的相对频率随机分布的,这是普遍使用的法则。就业工场数据中心n n除了考虑到仅有的几个有已知属性值的样本,Info(T)和Infox(T)的计算和前面机相同。然后可以用系数合理地修正增益参数,该系数表示所

15、给属性已知的概率。n n数据库中一个给出的属性值具有已知值的样本的数量/数据集中样本数量总和。n n新的增益标准有以下形式:Gain(x)=F(Info(T)-Infox(T)n n同样,通过把具有未知值的样本看作分区的一个附加组可以修改Split-info(x)。如果检验x有n个输出,Split-info(x)按照检验把数据集分区成n+1个子集计算。就业工场数据中心n n例如:一个改进了的C4.5决策树的方法。数据集见表7-2。就业工场数据中心n n该例有14个样本,属性1有一个丢失值,用“?”表示。只有13个样本数据完整。n n分区前的熵是:Info(T)=-8/13log2(8/13)-

16、5/13log2(5/13)=0.961n n属性1检验的信息:infox1(T)=5/13(-2/5log2(2/5)-3/5log2(3/5)+3/13(-3/3log2(3/3)-0/3log2(0/3)+5/13(-3/5log2(3/5)-2/5log2(2/5)=0.747就业工场数据中心n n该检验所获得的信息系数F(F=13/14)修正:Gain(x1)=13/14(0.961-0.747)=0.199n n该值比上个例子的值0.216小。然后,该分区信息仍是根据整个训练集来确定的,而且更大,因为对未知值有一个额外的类别。Split-info(xSplit-info(xi i)

17、=-(5/14log(5/14)+3/14log(3/14)=-(5/14log(5/14)+3/14log(3/14)+5/14log(5/14)+1/14log(1/14)=1.876 +5/14log(5/14)+1/14log(1/14)=1.876就业工场数据中心n n另外,每个样本都有一个相关的新参数,即概率。显然,当一个值已知的样本从T分配给Ti时,它属于Ti的概率是1,属于其他所有子集的概率是0。n n当一值是未知时,只能得出不稳定的概率描述。因此C4.5和每个子集Ti中的每个样本是用权重w联系起来的,它表示属于每个子集的样本概率。n n为了使该解决方法更具一般性,必须认为分区

18、前样本的概率并不总是等于1。因此,分区后丢失值的新参数wnew为:wnew=woldP(Ti)就业工场数据中心n n对于属性1的检验x1分区结果,丢失值的记录将被表示在3个子集中。如图7-7所示。就业工场数据中心n n因为最初的(旧的)w值等于1,新的权值wi等于概率5/13,3/13,和5/13。在C4.5中,Ti的算式如下:|T1|=5+5/13,|T2|=3+3/13,|T3|=5+5/13n n对属性2和属性3检验分区,最终决策树如图7-8中所示的形式。就业工场数据中心n n上图与图7-6结构相同,但是因为最终分类的不明确性,每个决策都以形式(|Ti|/E)和两个参数关联。|Ti|是到叶节点的部分样本和,E是属于除了指定类以外的类的样本的数量。2.4/0.4就业工场数据中心n n例如,(3.4/0.4)的意思是:3.4(3+5/13)个训练样本到达叶节点,其中0.4(5/13)并不属于分配给叶的类。n n可以用百分数表示参数|Ti|和E:3/3.4100%=所给叶的88%的样本将被分给类20.4/3.40.4/3.4 100%=100%=所给叶的12%的样本将被分给类1

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 管理文献 > 企业管理

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁