《数据预处理学习.pptx》由会员分享,可在线阅读,更多相关《数据预处理学习.pptx(64页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、为什么对数据进行预处理描述性数据汇总数据清理数据集成和变换数据归约离散化和概念分层生成数据预处理第1页/共64页现实世界的数据是“脏的”数据多了,什么问题都会出现不完整缺少数据值;缺乏某些重要属性;仅包含聚集数据;e.g.,occupation=有噪声包含错误或者孤立点e.g.Salary=-10数据不一致e.g.,在编码或者命名上存在差异e.g.,过去的等级:“1,2,3”,现在的等级:“A,B,C”e.g.,重复记录间的不一致性为什么进行数据预处理第2页/共64页不完整数据的成因数据收集的时候就缺乏合适的值数据收集时和数据分析时的不同考虑因素人为/硬件/软件 问题噪声数据(不正确的值)的成
2、因数据收集工具的问题数据输入时的 人为/计算机 错误数据传输中产生的错误数据不一致性的成因不同的数据源违反了函数依赖性数据为什么会变“脏”?第3页/共64页没有高质量的数据,就没有高质量的挖掘结果高质量的决策必须依赖高质量的数据e.g.重复值或者空缺值将会产生不正确的或者令人误导的统计数据仓库需要对高质量的数据进行一致地集成数据预处理将是构建数据仓库或者进行数据挖掘的工作中占工作量最大的一个步骤预处理为什么是重要的?第4页/共64页一个广为认可的多维度量观点:精确度完整度一致性合乎时机可信度附加价值可解释性跟数据本身的含义相关的内在的、上下文的、表象的以及可访问性数据质量的多维度量第5页/共6
3、4页数据清理填写空缺的值,平滑噪声数据,识别、删除孤立点,解决不一致性数据集成集成多个数据库、数据立方体或文件数据变换规范化和聚集数据归约得到数据集的压缩表示,它小得多,但可以得到相同或相近的结果数据离散化数据归约的一部分,通过概念分层和数据的离散化来规约数据,对数字型数据特别重要数据预处理的主要任务第6页/共64页第7页/共64页为什么对数据进行预处理描述性数据汇总数据清理数据集成和变换数据归约离散化和概念分层生成数据预处理第8页/共64页动机:为了更好的理解数据获得数据的总体印像识别数据的典型特征凸显噪声或离群点度量数据的中心趋势均值、中位数、众数(模)、中列数度量数据的离散程度四分位数、
4、四分位数极差、方差等描述性数据汇总第9页/共64页度量可以分为三类:分布式度量(distributive measure):将数据集划分为较小的子集,计算每个子集的度量,然后合并计算结果,得到原数据集的度量值。比如:count(),sum(),min(),max()等代数度量(algebraic):可以通过应用一个代数函数于一个或多个分布式度量计算的度量。比如:平均值函数avg()(avg()=sum()/count())整体度量(holistic):必须对整个数据集计算的度量比如:median(),mode(),rank()度量的分类第10页/共64页算术平均值加权算术均值截断均值(trim
5、med mean):去掉高、低极端值得到的均值e.g.计算平均工资时,可以截掉上下各2的值后计算均值,以抵消少数极端值的影响中位数:有序集的中间值或者中间两个值平均整体度量;但是可以通过插值法计算近似值度量数据的中心趋势第11页/共64页众数(Mode,也叫模):集合中出现频率最高的值单峰的(unimodal,也叫单模态)、双峰的(bimodal)、三峰的(trimodal);多峰的(multimodal)对于适度倾斜(非对称的)的单峰频率曲线,可以使用以下经验公式计算众数第12页/共64页最常用度量:极差、五数概括(基于四分位数)、中间四分位数极差和标准差极差(range):数据集的最大值和
6、最小值之差百分位数(percentile):第k个百分位数是具有如下性质的值x:k%的数据项位于或低于x中位数就是第50个百分位数四分位数:Q1(25th percentile),Q3(75th percentile)中间四分位数极差(IQR):IQR=Q3 Q1 孤立点:通常我们认为:挑出落在至少高于第三个四分位数或低于第一个四分位数 1.5IQR处的值度量数据的离散度(1)第13页/共64页五数概括:min,Q1,Median,Q3,max盒图:数据分布的一种直观表示方差和标准差方差 :n个观测之x1,x2.xn的方差是标准差 是方差 的平方根标准差 是关于平均值的离散的度量,因此仅当选平
7、均值做中心度量时使用所有观测值相同则 0,否则 0方差和标准差都是代数度量度量数据的离散度(2)第14页/共64页盒图:数据分布的一种直观表示,在盒图中:端点在四分位数上,使得盒图的长度是IQR中位数M用盒内的线标记胡须延伸到最大最小观测值该盒图为在给定时间段在AllElectronics的4个分店销售的商品单价的盒图分店1中位数$80Q1:$60Q3:$100盒图示例第15页/共64页使用盒图的数据离散的可视化描述第16页/共64页常用的显示数据汇总和分布的方法:直方图、分位数图、q-q图、散布图和局部回归曲线直方图:是一种概括给定属性分布的图形方法将数据分布划分成不相交的子集或桶,通常每个
8、桶宽度一致并用一个矩形表示,其高度表示桶中数据在给定数据中出现的计数或频率描述数据汇总的图形显示直方图第17页/共64页一种观察单变量数据分布的简单有效方法显示所有的数据,允许用户评估总的情况和不寻常情况的出现绘出了分位数信息设xi是递增排序的数据,则每个xi都有相对应的fi,指出大约有100 fi 的数据小于等于xi分位数图第18页/共64页对着另一个单变量的分位数,绘制一个单变量分布的分位数允许用户观察是不是有从一个分布到另外一个分布的迁移分位数分位数图(Q-Q 图)第19页/共64页确定两个数值属性之间看上去是否有联系、模式或者趋势的最有效的图形方法之一散布图中的每个值都被视作代数坐标对
9、,作为一个点画在平面上易于观察双变量数据在平面上的分布散布图第20页/共64页loess曲线为散布图添加一条平滑的曲线,以便更好的观察两个变量间的依赖模式Loess(local regression)意指“局部回归”,为了拟合loess曲线,需要两个参数:平滑参数,被回归拟合的多项式的阶 loess曲线第21页/共64页为什么对数据进行预处理描述性数据汇总数据清理数据集成和变换数据归约离散化和概念分层生成 数据预处理第22页/共64页业界对数据清理的认识“数据清理是数据仓库构建中最重要的问题”DCI survey数据清理任务填写空缺的值识别离群点和平滑噪声数据纠正不一致的数据解决数据集成造成的
10、冗余数据清理第23页/共64页数据并不总是完整的例如:数据库表中,很多条记录的对应字段没有相应值,比如销售表中的顾客收入引起空缺值的原因设备异常与其他已有数据不一致而被删除因为误解而没有被输入的数据在输入时,有些数据应为得不到重视而没有被输入对数据的改变没有进行日志记载空缺值要经过推断而补上空缺值第24页/共64页忽略元组:当类标号缺少时通常这么做(假定挖掘任务设计分类或描述),当每个属性缺少值的百分比变化很大时,它的效果非常差。人工填写空缺值:工作量大,可行性低使用一个全局变量填充空缺值:比如使用unknown或-使用属性的平均值填充空缺值使用与给定元组属同一类的所有样本的平均值使用最可能的
11、值填充空缺值:使用像Bayesian公式或判定树这样的基于推断的方法如何处理空缺值第25页/共64页噪声:一个测量变量中的随机错误或偏差引起不正确属性值的原因数据收集工具的问题数据输入错误数据传输错误技术限制命名规则的不一致其它需要数据清理的数据问题重复记录不完整的数据不一致的数据噪声数据第26页/共64页分箱(binning):首先排序数据,并将他们分到等深的箱中然后可以按箱平均值平滑、按箱中值平滑、按箱边界平滑等等回归通过让数据适应回归函数来平滑数据聚类:监测并且去除孤立点如何处理噪声数据 第27页/共64页price的排序后数据(单位:美元):4,8,15,21,21,24,25,28,
12、34划分为(等深的)箱:箱1:4,8,15箱2:21,21,24箱3:25,28,34用箱平均值平滑:箱1:9,9,9箱2:22,22,22箱3:29,29,29用箱边界平滑:箱1:4,4,15箱2:21,21,24箱3:25,25,34数据平滑的分箱方法第28页/共64页通过聚类分析检测离群点,消除噪声聚类将类似的值聚成簇。直观的,落在簇集合之外的值被视为离群点聚类第29页/共64页回归xyy=x+1X1Y1Y1第30页/共64页第一步:偏差检测使用元数据(e.g.每个属性的域、数值类型、依赖性、分布等)检查字段过载检查唯一性规则、连续性规则、空值规则使用偏差检查工具数据清理工具:使用简单的
13、领域知识(e.g.邮编、拼写检查)检查并纠正数据中的错误数据审计工具:通过分析数据发现规则和联系及检测违反这些条件的数据来发现偏差数据清理作为一个过程第31页/共64页第二步:数据变换(纠正偏差)数据迁移工具:允许说明简单的变换ETL(提取/变换/装入)工具:允许用户通过GUI说明变换偏差检测和数据变换(纠偏)的迭代执行强调交互性的清理方法第32页/共64页为什么对数据进行预处理描述性数据汇总数据清理数据集成和变换数据归约离散化和概念分层生成 数据预处理第33页/共64页数据集成:将多个数据源中的数据整合到一个一致的数据存储中模式集成:整合不同数据源中的元数据实体识别问题:匹配来自不同数据源的
14、现实世界的实体 e.g.Bill Clinton=William Clinton检测并解决数据值的冲突对现实世界中的同一实体,来自不同数据源的属性值可能是不同的可能的原因:不同的数据表示,不同的度量等等数据集成第34页/共64页集成多个数据库时,经常会出现冗余数据对象识别:同一属性或对象在不同的数据库中会有不同的字段名可导出数据:一个属性可以由另外一个表导出,如“年薪”有些冗余可以被相关分析检测到仔细将多个数据源中的数据集成起来,能够减少或避免结果数据中的冗余与不一致性,从而可以提高挖掘的速度和质量。处理数据集成中的冗余数据第35页/共64页2(chi-square)测试2的值越大,意味着两个
15、变量相关的可能性越大期望值和观测值之间相差越大,值也将越大相关性不意味着因果关系e.g.我们发现一个地区的医院数和汽车盗窃数相关两者都必然的关联到第三个属性:人口 分类数据的相关性分析第36页/共64页数据变换将数据转换或统一成适合挖掘的形式平滑:去除数据中的噪声聚集:汇总,数据立方体的构建数据泛化:沿概念分层向上汇总规范化:将数据按比例缩放,使之落入一个小的特定区间最小最大规范化z-score规范化小数定标规范化属性构造通过现有属性构造新的属性,并添加到属性集中;以增加对高维数据的结构的理解和精确度数据变换第37页/共64页最小最大规范化z-score规范化最大最小值未知,或者离群点影响较大
16、的时候适用小数定标规范化其中,j是使 Max(|)1的最小整数数据变换规范化第38页/共64页为什么对数据进行预处理描述性数据汇总数据清理数据集成和变换数据归约离散化和概念分层生成数据预处第39页/共64页为什么需要进行数据规约?数据仓库中往往存有海量数据在整个数据集上进行复杂的数据分析与挖掘需要很长的时间数据归约数据归约可以用来得到数据集的归约表示,它小得多,但可以产生相同的(或几乎相同的)分析结果数据规约第40页/共64页常用的数据归约策略数据立方体聚集属性子集选择,e.g.移除不重要的属性维度归约,数值归约,e.g.使用模型来表示数据离散化和概念分层产生用于数据归约的时间不应当超过或“抵
17、消”在归约后的数据上挖掘节省的时间第41页/共64页通过删除不相干的属性或维减少数据集属性子集选择(特征选择)找出最小属性集,使得数据类的概率分布尽可能的接近使用所有属性得到的原分布减少出现在发现模式上的属性数目,使得模式更易于理解启发式的(探索性的)方法逐步向前选择逐步向后删除向前选择和向后删除相结合决策树归约属性子集选择第42页/共64页维度归约使用数据编码或变换,以便得到原数据的归约或“压缩”表示两种有损的维度归约方法小波变换,一种线性信号处理技术可以用于多维数据,如数据立方体对于稀疏或倾斜数据和具有有序属性的数据,能给出很好的结果适合高维数据主成分分析,搜索k个最能代表数据的n维正交向
18、量,其中k小于等于n,这样,原来的数据投影到一个小得多的空间,导致维度归约。该计算开销低,可以用于有序和无序的属性,并且可以处理稀疏和倾斜数据。能够更好的处理稀疏数据第43页/共64页通过选择替代的、较小的数据表示形式来减少数据量有参方法使用一个参数模型估计数据,最后只要存储参数即可,不用存储数据(除了可能的离群点)常用方法:线性回归方法;多元回归;对数线性模型;无参方法不使用模型的方法存储数据常用方法:直方图,聚类,抽样数值归约第44页/共64页线性回归:数据被拟合为一条直线Y=w X+b两个回归系数,w和b,由手头的数据来进行估算通常适用最小二乘法来确定这条直线多元回归:线性回归的扩充,允
19、许响应变量Y被建模为两个或多个预测变量的线性函数。多元回归可以拟合多种非线性函数对数线性模型:近似离散的多维概率分布。回归分析与对数线性模型第45页/共64页一种流行的数据归约技术将某属性的数据划分为不相交的子集,或桶,桶中放置该值的出现频率桶和属性值的划分规则等宽等频(等深)V-最优具有最小方差MaxDiff10000300005000070000900000510152025303540直方图第46页/共64页将数据集划分为聚类,然后通过聚类来表示数据集如果数据可以组成各种不同的聚类,则该技术非常有效,反之如果数据界线模糊,则方法无效数据可以分层聚类,并被存储在多层索引树中将在第7章对聚类
20、分析进行深入探讨聚类第47页/共64页允许用数据的较小随机样本(子集)表示大的数据集对数据集D的抽样方法:s个样本无放回简单随机抽样(SRSWOR):从D的N个元组中抽取s个样本(sN)s个样本有放回简单随机抽样(SRSWR):过程同上,只是元组被抽取后,将被回放,可能再次被抽取聚类抽样:D中元组被分入M个互不相交的聚类中,可在其中的s个聚类上进行简单随机选择(SRS,s split_point的两个子集,这样就创建了一个二元离散化。(2)正如上面提到的,基于熵的离散化使用元组的类标号信息。为了解释基于熵的离散化的基本思想,必须考察一下分类。假定要根据属性A和某分裂点上的划分将D中的元组分类。
21、理想地,希望该划分导致元组的准确分类。例如,如果有两个类,希望类C1的所有元组落入一个划分,而类C2的所有元组落入另一个划分。然而,这不大可能。例如,第一个划分可能包含许多C1的元组,但也包含某些C2的元组。在该划分之后,为了得到完全的分类,我们还需要多少信息?这个量称作基于A的划分对D的元组分类的期望信息需求,由下式给出第57页/共64页其中,D1和D2分别对应于D中满足条件Asplit_point和A split_point的元组,|D|是D中元组的个数,如此等等。给定集合的熵函数Entropy根据集合中元组的类分布来计算。例如,给定m个类C1,C2,.,Cm,D1的熵是m其中,pi是D1
22、中类Ci的概率,由D1中Ci类的元组数除以D1中的元组总数|D1|确定。这样,在选择属性A的分裂点时,我们希望选择产生最小期望信息需求(即min(InfoA(D))的属性值。这将导致在用Asplit_point和A split_point划分之后,对元组完全分类(还)需要的期望信息量最小。这等价于具有最大信息增益的属性-值对。注意,Entropy(D2)的值可以类似于式计算。你可能会说,“但是我们的任务是离散化,而不是分类!”是这样。我们使用分裂点将A的值域划分成两个区间,对应于Asplit_point和A split_point。第58页/共64页(3)确定分裂点的过程递归地用于所得到的每个
23、分划,直到满足某个终止标准,如当所有候选分裂点上的最小信息需求小于一个小阈值,或者当区间的个数大于阈值max_interval 时终止。基于熵的离散化可以减少数据量。与迄今为止提到的其他方法不同,基于熵的离散化使用类信息。这使得它更有可能将区间边界(分裂点)定义在准确位置,有助于提高分类的准确性。这里介绍的熵和信息增益度量也用于决策树归纳。ChiMerge是一种基于2的离散化方法。到目前为止我们研究的离散化方法都使用自顶向下的分裂策略。ChiMerge正好相反,采用自底向上的策略,递归地找出最佳邻近区间,然后合并它们,形成较大的区间。这种方法是监督的,它使用类信息。其基本思想是,对于精确的离散
24、化,相对类频率在一个区间内应当相当一致。因此,如果两个邻近的区间具有非常类似的类分布,则这两个区间可以合并。否则,它们应当保持分开。4、基于2分析的区间合并第59页/共64页聚类分析是一种流行的数据离散化方法。通过将属性A的值划分成簇或组,聚类算法可以用来离散化数值属性A。聚类考虑A的分布以及数据点的邻近性,因此,可以产生高质量的离散化结果。遵循自顶向下的划分策略或自底向上的合并策略,聚类可以用来产生A的概念分层,其中每个簇形成概念分层的一个节点。在前者,每一个初始簇或划分可以进一步分解成若干子簇,形成较低的概念层。在后者,通过反复地对邻近簇进行分组,形成较高的概念层。5、聚类分析第60页/共
25、64页将数值区域划分为相对一致的、易于阅读的、看上去更直观或自然的区间。聚类分析产生概念分层可能会将一个工资区间划分为:51263.98,60872.34通常数据分析人员希望看到划分的形式为50000,60000自然划分的3-4-5规则常被用来将数值数据划分为相对一致,“更自然”的区间6、根据直观划分离散化第61页/共64页分类数据是指无序的离散数据,它有有限个值(可能很多个)。分类数据的概念分层生成方法:由用户或专家在模式级显式地说明属性的偏序。通过显示数据分组说明分层结构的一部分。说明属性集,但不说明它们的偏序。对只说明部分属性集的情况。分类数据的概念分层产生第62页/共64页根据在给定属性集中,每个属性所包含的不同值的个数,可以自动的生成概念分成;不同值个数最多的属性将被放在概念分层的最底层。属性集的规格countryprovincecitystreet5个不同值65 个不同值3567 个不同值674,339 个不同值第63页/共64页感谢您的观看!第64页/共64页