《数据挖掘算法.pptx》由会员分享,可在线阅读,更多相关《数据挖掘算法.pptx(87页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、一、概念和术语1.1 数据挖掘/知识发现(1)数据挖掘是从存放在数据集中的大量数据挖掘出有趣知识的过程。(2)数据挖掘,又称为数据库中知识发现(Knowledge Discovery in Databases)或知识发现,它是一个从大量数据中抽取挖掘出未知的、有价值的模式或规律等知识的非平凡过程,它与数据仓库有着密切的联系。(3)广义的数据挖掘是指知识发现的全过程;狭义的数据挖掘是指统计分析、机器学习等发现数据模式的智能方法,即偏重于模型和算法。(4)数据库查询系统和专家系统不是数据挖掘!在小规模数据上的统计分析和机器学习过程也不应算作数据挖掘。第1页/共87页1.2 机器学习(1)对于某类任
2、务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么这个计算机程序被称为在从经验E学习。(2)机器学习是知识发现的一种方法,是指一个系统通过执行某种过程而改进它处理某一问题的能力。第2页/共87页1.3 数据挖掘的对象(1)关系型数据库、事务型数据库、面向对象的数据库;(2)数据仓库/多维数据库;(3)空间数据(如地图信息)(4)工程数据(如建筑、集成电路的信息)(5)文本和多媒体数据(如文本、图象、音频、视频数据)(6)时间相关的数据(如历史数据或股票交换数据)(7)万维网(如半结构化的HTML,结构化的XML以及其他网络信息)第3页/共87页1.4 数据挖掘的
3、步骤(1)数据清理(消除噪音或不一致数据,补缺);(2)数据集成(多种数据源可以组合在一起);(3)数据选择(从数据库中提取相关的数据);(4)数据变换(变换成适合挖掘的形式);(5)数据挖掘(使用智能方法提取数据模式);(6)模式评估(识别提供知识的真正有趣模式);(7)知识表示(可视化和知识表示技术)。第4页/共87页1.5 支持数据挖掘的关键技术(1)数据库/数据仓库/OLAP(2)数学/统计(回归分析:多元回归、自回归;判别分析:Bayes判别、Fisher判别、非参数判别;主成分分析、相关性分析;模糊集;粗糙集)(3)机器学习(聚类分析;关联规则;决策树;范例推理;贝叶斯网络;神经网
4、络;支持向量机;遗传算法)(4)可视化:将数据、知识和规则转化为图形表现的形式。第5页/共87页1.6 数据仓库(1)数据仓库是一个面向主题的、集成的、随时间变化的、非易失性数据的集合,用于支持管理人员的决策。(2)数据仓库是一种多个异种数据源在单个站点以统一的模式组织的存储,以支持管理决策。数据仓库技术包括数据清理、数据集成和联机分析处理(OLAP)。(3)数据仓库的逻辑结构是多维数据库。数据仓库的实际物理结构可以是关系数据存储或多维数据方(Cube)。(4)数据方是由维度(Dimension)和度量(Measure)定义的一种数据集,度量存放在由维度索引的数据方单元中。维度对应于模式中的属
5、性组,度量对应于与主题相关的事实数据。数据方的物化是指预计算并存储全部或部分单元中的度量。第6页/共87页1.7 数据仓库的模型(1)星形模式:最常见模型;其中数据仓库包括一个大的、包含大批数据、不含冗余的中心表(事实表);一组小的附属表(维表),每维一个。(2)雪花模式:雪花模式是星型模式的变种,其中某些维表是规范化的,因而把数据进一步分解到附加的表中。(3)星系模式:多个事实表共享维表。这种模式可以看作星形模式集,因此称为星系模式,或事实星座。第7页/共87页1.8 典型的OLAP操作(1)OLAP是一种多维数据分析技术。包括汇总、合并和聚集等功能,以及从不同的角度观察信息的能力。(2)上
6、卷:从某一维度的更高概念层次观察数据方,获得更概要的数据。它通过沿维的概念分层向上或维归约来实现。(3)下钻:下钻是上卷的逆操作。它从某一维度的更低概念层次观察数据方,获得更详细的数据。下钻可以通过沿维的概念分层向下或引入新的维来实现。(4)切片和切块:切片操作在给定的数据方的选择一个维的部分属性,获得一个较小的子数据方。切块操作通过对选择两个或多个维的部分属性,获得一个较小的子数据方。(5)转轴:是一种改变数据方二维展现形式的操作。它将数据方的二维展现中的某些维度由行改为列,或由列改为行。第8页/共87页二、数据准备现实世界的数据是不完整的(有些感兴趣的属性缺少属性值,或仅包含聚集数据),含
7、噪音的(包含错误,或存在偏离期望的异常值),不一致的(例如,用于商品分类的部门编码存在差异)。需要数据清理、数据集成、数据选择、数据变换等技术对数据进行处理。第9页/共87页2.1 维归约/特征提取2.1-1 决策树归约(1)决策树归约构造一个类似于流程图的结构:其每个非叶子结点表示一个属性上的测试,每个分枝对应于测试的一个输出;每个叶子结点表示一个决策类。(2)在每个结点,算法选择“当前对分类最有帮助”的属性,出现在树中的属性形成归约后的属性子集。第10页/共87页2.1-2 粗糙集归约(1)粗糙集理论在数学意义上描述了知识的不确定性,它的特点是把用于分类的知识嵌入集合内,使分类与知识联系在
8、一起。(2)知识的粒度、不可分辨关系、上近似、下近似、边界等概念见下图。第11页/共87页2.1-2 粗糙集归约(续)(3)令Q代表属性的集合。qQ是一个属性,如果IND(Qq)=IND(Q),则q在S中不是独立的;否则称q在S中是独立的。(4)若集合满足IND(R)=IND(Q)且R中的每一个属性都是独立的,则R被称为Q的一个“约简”,记作R=RED(Q)。(5)约简可以通过删除冗余的(不独立的)属性而获得,约简包含的属性即为“对分类有帮助”的属性。第12页/共87页2.2 数据变换2.2-1 归一化与模糊化有限区间的归一化:无限区间的归一化:模糊隶属度:第13页/共87页2.2-2 核函数
9、(1)核函数的基本思想是将在低维特征向量线性不可分的数据映射到线性可分的高维特征空间中去。(2)映射可以是显式的,也可以是隐式的。显式映射即找到一个映射关系f,使高维空间的特征向量f(x)可以被直接计算出来。(3)隐式映射,即引入一个核函数进行整体处理,就避免了对的直接求f(x)的计算困难。核函数即某高维特征空间中向量的内积,是核矩阵中的一个元素。(4)并不是所有的实值函数f(x)都可以作为空间映射的核函数,只有f(x)是某一特征空间的内积时,即符合Mercer条件,它才能成为核函数。第14页/共87页2.2-2 核函数(续)多项式函数:高斯(RBF)函数:多层感知机函数:低维空间向量映射到高
10、维空间向量举例:第15页/共87页2.3 数据压缩2.3-1 离散化离散化的用途:(1)适应某些仅接受离散值的算法;(2)减小数据的尺度。离散化的方法包括几下几种。(1)等距分割;(2)聚类分割;(3)直方图分割;(4)基于熵的分割;(5)基于自然属性的分割。第16页/共87页2.3-2 回归回归和对数线性模型可以用来近似给定的数据。在线性回归中,用一条直线来模拟数据的生成规则。多元回归是线性回归的扩展,涉及多个预测变量。在多项式回归中,通过对变量进行变换,可以将非线性模型转换成线性的,然后用最小平方和法求解。第17页/共87页2.3-2 回归(续)利用线性回归可以为连续取值的函数建模。广义线
11、性模型则可以用于对离散取值变量进行回归建模。在广义线性模型中,因变量Y 的变化速率是Y 均值的一个函数;这一点与线性回归不同。常见的广义线性模型有:对数回归和泊松回归。对数回归模型是利用一些事件发生的概率作为自变量所建立的线性回归模型。泊松回归模型主要是描述数据出现次数的模型,因为它们常常表现为泊松分布。第18页/共87页2.3-3 主成分分析(PCA)PCA算法搜索c个最能代表数据的k-维正交向量;这里c k。这样,原来的数据投影到一个较小的空间,导致数据压缩。步骤如下:(1)对输入数据归一化,使得每个属性都落入相同的区间。(2)PCA计算c个规范正交向量,作为归一化输入数据的基。这些是单位
12、向量,每一个都垂直于另一个:称为主成分。输入数据是主要成分的线性组合。(3)对主成分按“意义”或强度降序排列,选择部分主成分充当数据的一组新坐标轴。第19页/共87页2.3-4 离散小波变换(DWT)离散小波变换是一种线性信号处理技术。该技术方法可以将一个数据向量转换为另一个数据向量(为小波相关系数);且两个向量具有相同长度。可以舍弃转换后的数据向量中的一些小波相关系数。保留所有大于用户指定阈值的小波系数,而将其它小波系数置为0,以帮助提高数据处理的运算效率。这一技术方法可以在保留数据主要特征情况下除去数据中的噪声,因此该方法可以有效地进行数据清洗。给定一组小波相关系数,利用离散小波变换的逆运
13、算还可以近似恢复原来的数据。第20页/共87页2.3-4 离散小波变换(续)常用的小波函数包括Haar系列,Daubechies系列,Moret系列,Sym系列,Meyer系列,Coif系列。第21页/共87页2.3-5 潜在语义分析潜在语义分析将样本映射到语义概念空间以发现样本数据之间的潜在语义联系。(1)构造“特征-样本”矩阵,“特征-样本”矩阵中的每一列是对应于第i个样本特征向量;(2)对该矩阵进行奇异值分解(SVD);(3)用最大的k个奇异值所对应的“特征-语义”矩阵Uk和“样本-语义”矩阵Vk以及最大的k个奇异值重构“特征-样本”矩阵。下面两式分别代下面两式分别代表在语义空间特表在语
14、义空间特征与特征之间的征与特征之间的距离和距离和在语义空间在语义空间样本与样本之间样本与样本之间的距离的距离第22页/共87页2.3-6 聚类分析聚类技术将数据元组视为对象。它将对象划分为聚类,使在一个聚类中的对象“类似”,但与其它聚类中的对象“不类似”。通常,类似性基于距离,用对象在空间中的“接近”程度定义。聚类的“质量”可以用“直径”表示;而直径是一个聚类中两个任意对象的最大距离。质心距离是聚类质量的另一种度量,它定义为由聚类质心(表示“平均对象”,或聚类空间中的平均点)到每个聚类对象的平均距离。第23页/共87页2.3-6 聚类分析(续)k-meansk-means算算法法k-medoi
15、dsk-medoids算法算法第24页/共87页三、数据挖掘算法数据挖掘算法按挖掘目的可分为:(1)概念描述(总结,对比等)(2)关联规则分析(3)分类与预测 (信息自动分类,信息过滤,图像识别等)(4)聚类分析(5)异常分析(入侵检测,金融安全等)(6)趋势、演化分析(回归,序列模式挖掘)第25页/共87页按训练方式,机器学习可分为:(1)有监督的学习;有训练样本,学习机通过学习获得训练样本包含的知识,并用其作为判断测试样本的类别的依据。(2)无监督的学习:无训练样本,仅根据测试样本的在特征空间分布情况判断其类别。(3)半监督的学习:有少量训练样本,学习机以从训练样本获得的知识为基础,结合测
16、试样本的分布情况逐步修正已有知识,并判断测试样本的类别。(4)强化学习:没有训练样本,但有对学习机每一步是否更接近目标的奖惩措施。第26页/共87页有监督的学习n n半监督的学习n n无监督的学习第27页/共87页3.1 关联规则挖掘关联规则挖掘发现大量数据中项集之间有趣的关联或相关联系。设I=i1,i2,.,im 是项的集合。设任务相关的数据D是数据库事务的集合,其中每个事务T是项的集合,使得T I。设A是一个项集,事务T包含A当且仅当A T。关联规则是形如A B的蕴涵式,其中A I,B I,并且A B=。规则A B在事务集D中成立,具有支持度s,其中s是D中事务包含A B的百分比。即,P(
17、A B)。规则A B在事务集D中具有置信度c,如果D中包含A的事务同时也包含B的百分比是c。这是条件概率P(B|A)。即support(A B)=P(A B)confidence(A B)=P(B|A)第28页/共87页3.1 关联规则挖掘(续)Apriori性质:频繁项集的所有非空子集都必须也是频繁的。Apriori性质基于如下观察:根据定义,如果项集I不满足最小支持度阈值s,则I不是频繁的,即P(I)s。如果项A添加到I,则结果项集(即I A)不可能比I更频繁出现。因此,I A也不是频繁的,即P(I A)s。该性质表明如果一个集合不能通过测试,则它的所有超集也都不能通过相同的测试。将Apr
18、iori性质应用于算法:下面算法的两个主要步过程由连接和剪枝组成。第29页/共87页3.1 关联规则挖掘(续)连接步:为找Lk,通过Lk-1与自己连接产生候选k-项集的集合。该候选项集的集合记作Ck。Ck是Lk的超集。扫描数据库,确定Ck中每个候选的计数,将令计数值不小于最小支持度计数的(频繁的)所有候选加入Lk。剪枝步:但Ck可能很大,这样所涉及的计算量就很大。根据Apriori性质如果一个候选k-项集的(k-1)-子集不在Lk-1中,则该候选也不可能是频繁的,从而可以由Ck中删除。Apriori性质(逆反描述):任何非频繁的(k-1)-项集都不是可能是频繁k-项集的子集。第30页/共87页
19、3.2 决策树决策树学习是归纳推理算法。它是一种逼近离散函数的方法,且对噪声数据有很好的健壮性。在这种方法中学习到的知识被表示为决策树,决策树也能再被表示为多个if-then的规则,以提高可读性。基本决策树算法就是一个贪心算法。它采用自上而下、分而制之的递归方式来构造一个决策树通常,决策树是一种自顶向下增长树的贪婪算法,在每个结点选取能最好地分类样例的属性。继续这个过程直到这棵树能完美分类训练样例,或所有的属性都使用过了。“信息增益”用于衡量属性的价值。熵(entropy)是一种度量信息增益的指标,它描述了样本的纯度(purity)。下面是熵的定义:Entropy=-Pilog2Pi第31页/
20、共87页3.2 决策树(续)注意点:(1)避免过度拟合,应该适度剪枝;(2)连续值的离散化;(3)处理缺失值的方法:最常见值、按概率分配;(4)处理权重不同的属性常用实现算法:CART、ID3、ASSISTANT、C4.5第32页/共87页3.3 人工神经网络人工神经网络(Artificial Neural Networks)提供了一种普遍而且实用的方法,来从样例中学习值为实数、离散或向量的函数。反向传播(Back Propagation)这样的算法使用梯度下降来调节网络参数以最佳拟合由输入/输出对组成的训练集合。BP网络的学习方法和目标:对网络的连接权值进行调整,使得对任一输入都能得到所期望
21、的输出。第33页/共87页常用的非线性作用函数是常用的非线性作用函数是SigmoidSigmoid函数函数,即,即f f(x x)=1/(1+e)=1/(1+e-x-x)。在神经。在神经网络模型中,大量神经元节点按网络模型中,大量神经元节点按一定体系结构连接成网状。神经一定体系结构连接成网状。神经网络一般都具有输入层,隐层和网络一般都具有输入层,隐层和输出层。输出层。每个神经元都是一个结构相每个神经元都是一个结构相似的独立单元,它接受前一似的独立单元,它接受前一层传来的数据,并将这些数层传来的数据,并将这些数据的加权和输入非线性作用据的加权和输入非线性作用函数中,最后将非线性作用函数中,最后将
22、非线性作用函数的输出结果传递给后一函数的输出结果传递给后一层。层。第34页/共87页误差反向传播的过程第35页/共87页3.3 人工神经网络(续)自适应共振理论模型(ART)聚类连续/离散Hopfield神经网络求近似最优解,识别与分类双向联想记忆模型 (BAM)识别玻尔兹曼机(BM)求最优解脑中盒模型(BSB)识别与分类自组织映射模型(SOM)识别与分类对向传播网络模型(CPN)识别与分类小脑模型(CMAC)快速识别第36页/共87页3.4 朴素贝叶斯(Naive Bayes)分类器朴素贝叶斯分类器是一种基于贝叶斯理论的分类器。它的特点是以概率形式表达所有形式的不确定,学习和推理都由概率规则
23、实现,学习的结果可以解释为对不同可能的信任程度。P(H)是先验概率,或H的先验概率。P(H|X)是后验概率,或条件X下,H的后验概率。后验概率P(H|X)比先验概率P(H)基于更多的信息。P(H)是独立于X的。假定数据样本世界由水果组成,用它们的颜色和形状描述。假定X表示红色和圆的,H表示假定X是苹果,则P(H|X)反映当我们看到X是红色并是圆的时,我们对X是苹果的确信程度。第37页/共87页朴素贝叶斯分类能够奏效的前提是,朴素贝叶斯分类能够奏效的前提是,P(X|H)P(X|H)相对比相对比较容易计算。假定较容易计算。假定X X表示红色和圆的,表示红色和圆的,H H表示假定表示假定X X是苹果
24、;则是苹果;则P(X|H)P(X|H)表示已知苹果,它既红又圆的概表示已知苹果,它既红又圆的概率。率。第38页/共87页3.5 期望最大化(EM)期望最大化(EM)方法和朴素贝叶斯方法有着共同的理论基础。期望最大化是一种基于循环过程的最大似然参数估计方法,用于解决带缺失数据的参数估计问题。样本数据分为标记样本和未标记样本,按照统计的观点,对于每一个样本的产生,其背后都有一个模型,即样本生成模型。样本生成模型的参数先由标记样本确定,再通过标记样本和利用当前模型判断标记的未标记样本共同调整。第39页/共87页3.5 期望最大化(续)如果参数适当,EM 算法能得到较好的分类结果,但计算速度相对较慢。
25、其具体的步骤如下:一、初始参数估计,将未标记的样本按朴素贝叶斯分类方法进行类标注。二、反复迭代E步骤和M步骤,直到收敛。三、E步骤:对于每个未标记的样本,按下式计算类标记的期望值。四、M步骤:利用E步骤计算出的期望值,按下式用已标记样本和未标记样本重新估计新的分类器参数。第40页/共87页3.6 K-最近邻分类K-近邻(K-NN)分类是基于范例的分类方法,它的基本思想是:给定待分类样本后,考虑在训练样本集中与该待分类样本距离最近(最相似)的K 个样本,根据这K 个样本中大多数样本所属的类别判定待分类样本的类别。它的特例是1-NN,即分类时选出待分类样本的最近邻,并以此最近邻的类标记来判断样本的
26、类。K-NN算法的优点在于它有较高的精确程度,研究表明,K-NN的分类效果要明显好于朴素贝叶斯分类、决策树分类。第41页/共87页3.6 K-最近邻分类(续)最近邻分类的算法步骤如下:一、以向量空间模型的形式描述各训练样本。二、在全部训练样本集中选出与待分类样本最相似的K个样本。K值的确定目前没有很好的方法,一般采用先定一个100左右的初始值,然后再调整。三、将待分类样本标记为其K个邻居中所属最多的那个类别中。第42页/共87页3.7 遗传算法遗传算法易于并行处理,其依据是自然界进化和适者生存的原则。遗传学习开始如下:创建若干个由随机产生的个体组成的初始群体。每个个体用一个二进位串表示。形成由
27、当前群体中最适合的个体组成新的群体,以及这些规则的子女。个体的适合度用某一目标函数来评估。子女通过使用诸如交叉和变异等遗传操作来创建。在交叉操作中,来自个体对的子串交换,形成新的个体对。在变异操作中,个体中随机选择的位被反转。第43页/共87页3.7 遗传算法(续)Fitness:适应度评分函数,为给定假设赋予一个评估得分。Fitness_threshold:指定终止判据的阈值。p:群体中包含的假设数量。r:每一步中通过交叉取代群体成员的比例。m:变异率。初始化群体:P随机产生的p个假设评估:对于P中的每一个h,计算Fitness(h)当Fitness(h)Fitness_threshold,
28、做:产生新的一代PS:第44页/共87页3.7 遗传算法(续)选择:用概率方法选择P的(1-r)p个成员加入PS。从P中选择假设hi的概率P(hi)通过下面公式计算:交叉:根据上面给出的P(hi),从P中按概率选择rp/2对假设。对于每一对假设应用交叉算子产生两个后代。把所有的后代加入PS。变异:使用均匀的概率从PS中选择m百分比的成员。对于选出的每个成员,在它的表示中随机选择一个位取反。更新:PPS。评估:对于P中的每一个h计算Fitness(h)从P中返回适应度最高的假设。第45页/共87页3.8 聚类分析为达到全局最优,基于划分的聚类会要求穷举所有可能的划分。聚类技术将数据元组视为对象。
29、它将对象划分为群或聚类,使得在一个聚类中的对象“类似”,但与其它聚类中的对象“不类似”。绝大多数应用采用了以下两个比较流行的基于划分的方法,这些基于划分的聚类方法对在中小规模的数据库中发现球状簇很适用。(1)k-means算法,在该算法中,每个簇用该簇中对象的平均值来表示。(2)k-medoids算法,在该算法中,每个簇用接近聚类中心的一个对象来表示。第46页/共87页3.8 聚类分析(续)常用的相似程度度量 余弦夹角:Dice系数:Jaccard系数:第47页/共87页3.8 聚类分析(续)基于层次的方法:层次的方法对给定数据集合进行层次的分解。根据层次的分解如何形成,层次的方法可以被分为凝
30、聚或分裂方法。(Chameleon,CURE,BIRCH)基于密度的方法:只要临近区域的密度超过某个阈值,就继续聚类。避免仅生成球状聚类。(DBSCAN,OPTICS,DENCLUE)基于网格的方法:基于网格的方法把对象空间量化为有限数目的单元,所有的聚类操作都在这个量化的空间上进行。这种方法的主要优点是它的处理速度很快。(STING,CLIQUE,WaveCluster)基于模型的方法:为每个簇假设一个模型,发现数据对模型的最好匹配。(COBWEB,CLASSIT,AutoClass)第48页/共87页3.9 隐马尔可夫模型对于一个随机事件,有一个观察值序列:O1,.,OT。该事件隐含着一个
31、状态序列:X1,.,XT假设1:马尔可夫性,P(Xi|Xi-1X1)=P(Xi|Xi-1)假设2:不动性,P(Xi+1|Xi)=P(Xj+1|Xj),对任意i,j成立假设3:输出独立性,P(O1,.,OT|X1,.,XT)=P(Ot|Xt)一个隐马尔可夫模型是一个五元组:(X,O,A,B,)其中:X=Q1,.,QN:状态的有限集合;O=V1,.,VM:观察值的有限集合;A=aij,aij=P(Xt+1=Qj|Xt=Qi):转移概率;B=bik,bik=P(Ot=Vk|Xt=Qi):输出概率;=i,i=P(X1=Qi):初始状态分布。第49页/共87页3.9 隐马尔可夫模型(续)令 =A,B,为
32、给定HMM的参数,令 =O1,.,OT 为观察值序列,隐马尔可夫模型的三个基本问题:评估问题:对于给定模型,求某个观察值序列的概率P(|)。向前/向后算法:定义向前/向后变量。采用动态规划算法,复杂度O(N2T)解码问题:对于给定模型和观察值序列,求可能性最大的状态序列。Viterbi算法:采用动态规划算法,复杂度O(N2T)学习问题:对于给定的一个观察值序列,调整参数,使得观察值出现的概率P(|)最大。向前EM算法的一个特例,带隐变量的最大似然估计。Baum-Welch算法。第50页/共87页n3.9隐马尔可夫模型(续)n n向前/向后算法:定义向前/向后变量:n n初始化:n n递归:n
33、n终结:第51页/共87页n3.9隐马尔可夫模型(续)n nViterbiViterbi算法算法n n初始化:n n递归:n n终结:n n求S序列:第52页/共87页3.9 隐马尔可夫模型(续)Baum-Welch算法主要步骤:1.初始模型(待训练模型)l0,2.基于l0以及观察值序列s,训练新模型l;3.如果logP(X|l)-log(P(X|l0)Delta,说明训练已经达到预期效果,算法结束。4.否则,令l0 l,继续第2步工作第53页/共87页3.10 支持向量机支持向量机基本模型是针对线性可分情况下的最优分界面提出的。在这一条件下,正类和反类训练样本可用超平面完全正确地分开。设线性
34、可分样本集合为(xi,yi),i=1,n;xRd,y+1,-1是类别标记。支持向量机工作的机理可描述为:寻找一个超平面wx+b=0,该平面把两类训练样本点完全正确地分开,即满足 且 ;同时满足两类训练点到此超平面的最近距离之和,即“间隔”(Margin),达到最大。满足上述条件的分界面就是最优分界面,经过两类样本中距离最优分类面最近的点,且平行于最优分界面的超平面H1、H2(边界超平面)上的训练样本称为支持向量,即图中带圈的点。第54页/共87页3.10 支持向量机(续)根据最近距离之和最大以及正确分离两类样本这两个条件,可以构造约束极值问题:见(1)式。通过拉格朗日乘数法并引入拉格朗日乘数,
35、该约束极值问题就可以转化成一个求解较为简单的对偶问题,通过寻求该对偶问题的最优解,就可以得到原问题的最优解。构造分类器判决函数:见(2)式。(2)式中,sgn(.)是取符号函数,产生+1或-1两种结果。当测试无标记的测试数据时,根据上式的计算结果就可判断无标记测试数据属于正类还是反类。(1)(2)第55页/共87页3.10 支持向量机(续)由于噪声或其他因素的影响,两类数据可能有少数的融合或交叉。引入松弛变量x使得分类器在训练后仍可以存在一些错分样本,不但要使两类样本之间的间隔尽量大,同时还要使错分的样本的松弛变量之和尽可能的小,即其中,其中,x x为松弛变量,满足为松弛变量,满足x xi i
36、00;C C为大于零的折衷因为大于零的折衷因子,它调和了间隔距离和错子,它调和了间隔距离和错分样本数之间的关系,分样本数之间的关系,C C趋趋近于无穷大时即为线性可分近于无穷大时即为线性可分的形式。为了提高支持向量的形式。为了提高支持向量机的推广能力,机的推广能力,C C通常取为通常取为较大的数。较大的数。第56页/共87页3.10 支持向量机(续)解决线性不可分数据问题的方法是将低维空间的线性不可分数据映射到高维的线性可分空间中。支持向量机通过非线性映射f(x)把数据由低维空间向高维空间映射,在高维空间为低维数据构造线性分离超平面。该分离超平面对应着原特征空间上的一个分割超曲面。在高维特征空
37、间上所有涉及f(x)的计算及判决函数都以f(x)的内积形式出现,因而可以引入一个核函数进行整体处理从而避免了对f(x)的直接计算,使所有的计算仍在原空间进行。第57页/共87页3.10 支持向量机(续)统计学习理论认为:学习机误判未知数据类别的实际风险与学习机的训练误差并不完全一致,对于两类分类问题,实际风险与学习机的训练误差之间至少以1-h 的概率(0 h 1)满足下式:根据统计学习的理论,对于两类分类的支持向量机,在线性可分的情况下,它的推广误差的上界(以1-d 的概率(0 d 1)保证)为:其中,m是连续分类正确的样本数;g=1/|w|,是间隔距离的一半;R是一个特征空间球的半径,它将全
38、部样本包含在其中。第58页/共87页3.11 关系学习关系学习所涉及的问题比传统机器学习中涉及到的问题高一个层次。该类问题的假设空间庞大,结构复杂;需要加入领域知识反映问题的内在结构。关系学习中知识的表示:原子;析取、合取、蕴含、非;验证、等价、涵蕴等。句子由上述元素组成。一阶Horn子句:仅包含一个肯定文字的子句。有三种类型的Horn子句:单一原子(事实);一个蕴涵(规则);一个否定文字的集合(目标)。第59页/共87页3.11 关系学习(续)归纳逻辑编程(Inductive Logic Programming,ILP)是处理关系学习领域问题的重要方法。它是归纳学习和逻辑程序结合的产物。IL
39、P用于一阶逻辑的概念学习和逻辑程序的合成。ILP 系统处理分类任务时主要采用两种方式:覆盖方法和分治方法。子句空间由形如:HL1,L2,Lm 的一阶子句构成。-包容关系:假设c和c是两个程序子句,子句c-包容子句c,如果存在一个替换使得cc基于ILP的常用方法有:Progol、FOIL、TLIDE、ICL第60页/共87页四、模型上的模型4.1 装袋/提升给定s个样本的集合S。装袋(Bagging)过程如下。对于迭代t(t=1,2,.,T),训练集St采用放回选样,由原始样本集S选取。由于使用放回选样,S的某些样本可能不在St中,而其它的可能出现多次。由每个训练集St学习,得到一个分类法Ct。
40、为对一个未知的样本X分类,每个分类法Ct返回它的类预测,算作一票。装袋的分类法C*统计得票,并将得票最高的类赋予X。通过取得票的平均值,装袋也可以用于连续值的预测。第61页/共87页4.1 装袋/提升(续)提升(Boosting)过程如下:每个训练样本赋予一个权,并学习得到一系列分类法。对于迭代t(t=1,2,.,T),学习得到分类法Ct后,更新权,使得随后的分类法Ct+1“更关注”Ct的分类错误。最终的提升分类法C*组合每个分类法的表决,这里每个分类法的表决是其准确率的函数。通过取得票的平均值,提升算法也可以扩充到连续值预测。第62页/共87页4.2 共同训练(Co-Training)共同训
41、练算法用两个不同的“视图”(即特征集合)来描述文本的特征。基本思路:每个视图对应一个学习机,而每个学习机都根据自身已学到的规律来标记“最有把握”的无标记样本,然后将这个(或这几个)新标记的样本加入训练样本,并扩展后的训练样本提供给另一个学习机进行学习。如此反复,直到满足一定的条件为止。该算法中所用到的两个视图需要满足以下两个条件:首先,每个特征集合对文本分类学习来说都是充分的;其次,在给定类别标记的条件下,两个特征集合相互独立。第63页/共87页4.3 主动学习/被动学习主动学习在学习过程中可以根据学习进程,选择最有利于分类器性能的样本来进一步训练分类器,它能有效地减少评价样本的数量;被动学习
42、只是随机地选择训练样本,被动地接受这些样本的信息进行学习。主动学习是实现监督学习过程的一个有效的方法。在主动学习过程中,分类器主动地选择对其“最有帮助”的一组子样本进行学习,而不是被动地接受训练集。“最有帮助”的样本指的是对当前分类器来说,归属最不确定的样本。即当前分类器最难以区分的样本。通常情况下,主动学习的计算复杂度比一般的监督学习过程要显著得低。第64页/共87页4.3 主动学习/被动学习(续)初始状态下,候选样本集中所有的样本都未带类别标注,根据先验知识或者随机地从候选样本集中选择少量样本并标注它们的类别,构造初始训练样本集,确保初始训练样本集中至少包含有一个正例样本和一个负例样本。在
43、上述初始训练样本集上训练一个分类器,并采用某种针对该分类器采样算法,从候选样本集中选择最有利于提高分类器性能的样本,手工标注其类别并加入训练样本集,再重新训练分类器。重复以上过程,直到候选样本集为空或达到某种要求。主动学习是一个循环反复的过程。第65页/共87页在主动学习的模型中,全部数据被分为两部分,一部分是带标签的样本集X,另一部分是无标签的样本集U。主动学习的模型还包括了一个在带标签的样本集X上训练的学习机L和一个决策模块q。决策模块q用来决定U中的哪一些样本应该被选出标记标签,并加入带标签的样本集X。更新后的X将在下一个轮次被用于训练学习机L。主动学习的框架模型如图。根据决策模块根据决
44、策模块q q的不同的不同工作机理,主动学习方工作机理,主动学习方法又可以被分为两大类:法又可以被分为两大类:其一是其一是不确定取样方法不确定取样方法;另一是另一是委员会咨询方法委员会咨询方法。第66页/共87页4.4 直推式学习直推式学习的思想来源于前面提到的机器学习的困境:一方面获取已知标签的样本代价高昂;另一方面获取无标签的样本要相对容易得多。直推式学习的学习过程恰恰可以将大量无标签的测试集样本所携带的分类信息,通过迭代逐步转移到了最终的分类器中去。由于测试样本易于获得、数量较多,直推式学习机能够更好地描述整体样本空间上的数据分布特性,使测试样本的分类结果更为准确。第67页/共87页4.4
45、 直推式学习(续)在多数情况下,人们只对测试文本的分类结果感兴趣,这时就没有必要非得寻求具有良好泛化能力的规则,而只要求分类器能对这些特定的文本做出正确分类即可。它在目前已知标签样本十分紧缺,而未知标签样本易于获得的条件下,有着非常重要的现实意义。第68页/共87页4.5 广义EM算法EM算法可用于许多问题框架,其中需要估计一组描述基准概率分布的参数,只给定了由此分布产生的全部数据中能观察到的一部分。一般地,令X=代表在同样的实例中未观察到的数据,并令Y=XZ代表全体数据。注意到未观察到的Z可被看作随机变量,它的概率分布依赖于未知参数和已知数据X。类似地,Y是一随机变量,因为它是由随机变量Z来
46、定义的。在EM算法的一般形式中,用h来代表参数的假设值,而h代表在EM的每次迭代中修改的假设。第69页/共87页4.5 广义EM算法(续)EM算法通过搜寻使ElnP(Y|h)最大的h来寻找极大似然假设h。此期望值是在Y所遵循的概率分布上计算,此分布由未知参数确定。首先,P(Y|h)是给定假设h下全部数据Y的似然性。其合理性在于我们要寻找一个h使该量的某函数值最大化。其次,使该量的对数lnP(Y|h)最大化也使P(Y|h)最大化。第三,引入期望值ElnP(Y|h)是因为全部数据Y本身也是一随机变量。已知全部数据Y是观察到的X和未观察到的Z的合并,我们必须在未观察到的Z的可能值上取平均,并以相应的
47、概率为权值。第70页/共87页4.5 广义EM算法(续)在EM算法的一般形式里,重复以下两个步骤直至收敛。步骤1:估计(E)步骤:使用当前假设h和观察到的数据X来估计Y上的概率分布以计算Q(h|h)。步骤2:最大化(M)步骤:将假设h替换为使Q函数最大化的假设h:第71页/共87页4.6 强化学习强化学习的模型如图所示通过Agent与环境的交互进行学习。Agent与环境的交互接口包括行动(Action)、回报(Reward)和状态(State)。交互过程可以表述为如下形式:每一步,Agent根据策略选择一个行动执行,然后感知下一步状态和即时回报,通过经验再修改自己的策略。Agent的目标就是最
48、大化长期回报。第72页/共87页4.6 强化学习(续)马尔可夫过程是四元组M=。其中S是状态集。A是行动集,A(s)表示状态s下可执行的行动。T=SAS 0,1是状态转换模型,T(s,a,s)表示状态s下执行行动a到达状态s 的概率,且满足s T(s,a,s)=1。R=SAS R是即时回报函数,R(s,a,s)表示状态s下执行行动a到达状态s 后可以得到的即时回报。第73页/共87页4.6 强化学习(续)转换模型和回报函数是环境的一部分,描述了环境模型,且只与当前状态和行动有关,与以前的状态和行动都没有关系,体现了马尔可夫特性。Agent为了完成任务,必须知道每个行动的长远回报,而不仅仅是即时
49、回报。而长远回报必须经过一定时间的延迟之后才可以获得。有终任务和持续任务可以统一起来,他们的长期回报是 或第74页/共87页4.6 强化学习(续)Agent与环境交互的学习中选择行动的方法称为策略:SA0,1,(s,a)表示在状态s下选择行动a的概率。策略的一个退化形式为:SA,称为确定性策略,表示在状态s下行动a的执行概率为1,其它行动均为0。Q学习是最常用的强化学习技术。值函数Q函数第75页/共87页4.6 强化学习(续)学习的目的是找到一个最优策略。设有策略和,若对所有状态sS都有 V(s)V(s),则称策略比策略好。这样就总存在一个策略,它比其它所有策略都好,称为最优策略*。若最优策略
50、对应的状态评价函数记为V*,则对所有状态sS,有V*(s)=max V(s)。对所有状态sS,所有行动aA(s),有Q*(s)=max Q(s)。第76页/共87页4.6 强化学习(续)三种计算“值函数”V(s)方法:动态规划法:已知环境模型T和R,每步进行迭代。Monte Carlo法:没有环境模型,根据经验学习。只考虑有终任务,任务结束后对所有的回报进行平均。时序差分法:没有环境模型,根据经验学习。每步进行迭代,不需要等任务完成。第77页/共87页4.6 强化学习(续)在多Agent系统中,环境在多个Agent的联合动作下进行状态的迁移。对于单个Agent来讲,由于其只能确定自身Agent