《模式识别综述作业(共4页).doc》由会员分享,可在线阅读,更多相关《模式识别综述作业(共4页).doc(4页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、精选优质文档-倾情为你奉上模式识别综述模式识别是人类的一项基本智能,在日常生活中,人们经常在进行“模式识别”。随着20世纪40年代计算机的出现以及50年代人工智能的兴起,人们也希望能用计算机来代替或扩展人类的部分脑力劳动。模式识别在20世纪60年代初迅速发展并成为一门新学科。1 模式识别基本概念与研究任务模式识别(Pattern Recognition)是对感知信号(图像、视频、声音等)进行分析,对其中的物体对象或行为进行判别和解释的过程。模式识别能力普遍存在于人和动物的认知系统,是人和动物获取外部环境知识,并与环境进行交互的重要基础。我们现在所说的模式识别一般是指用机器实现模式识别过程,是人
2、工智能领域的一个重要分支。早期的模式识别研究是与人工智能和机器学习密不可分的,如Rosenblatt的感知机和Nilsson的学习机就与这三个领域密切相关。后来,由于人工智能更关心符号信息和知识的推理,而模式识别更关心感知信息的处理,二者逐渐分离形成了不同的研究领域。介于模式识别和人工智能之间的机器学习在20世纪80年代以前也偏重于符号学习,后来人工神经网络重新受到重视,统计学习逐渐成为主流,与模式识别中的学习问题渐趋重合,重新拉近了模式识别与人工智能的距离。模式识别与机器学习的方法也被广泛用于感知信号以外的数据分析问题(如文本分析、商业数据分析、基因表达数据分析等),形成了数据挖掘领域。有两
3、种基本的模式识别方法,统计模式识别方法和结构(句法)模式识别方法。统计模式识别是对模式的统计分类方法,即结合统计概率论的贝叶斯决策系统进行模式识别的技术,又称为决策理论识别方法。利用模式与子模式分层结构的树状信息所完成的模式识别工作,就是结构模式识别或句法模式识别。模式识别的主要任务和核心研究内容是模式分类。分类器设计是在训练样本集合上进行优化(如使每一类样本的表达误差最小或使不同类别样本的分类误差最小)的过程,也就是一个机器学习过程。由于模式识别的对象是存在于感知信号中的物体和现象,它研究的内容还包括信号、图像、视频的处理、分割、形状和运动分析等,以及面向应用(如文字识别、语音识别、生物认证
4、、医学图像分析、遥感图像分析等)的方法和系统研究。 2 模式识别的发展历史现代模式识别是在20世纪40年代电子计算机发明以后逐渐发展起来的。作为统计模式识别基础的多元统计分析和鉴别分析也在电子计算机出现之前提出来了。1957年IBM的C.K. Chow将统计决策方法用于字符识别。然而,“模式识别”这个词被广泛使用并形成一个领域则是在20世纪60年代以后。1966年由IBM组织在波多黎各召开了第一次以“模式识别”为题的学术会议。Nagy的综述和Kanal的综述分别介绍了1968年以前和1968-1974的研究进展。 70年代几本很有影响的模式识别教材 (如Fukunaga, Duda & Har
5、t)的相继出版和1972年第一届国际模式识别大会(ICPR)的召开标志着模式识别领域的形成。同时,国际模式识别协会(IAPR)在1974年的第二届国际模式识别大会上开始筹建,在1978年的第四届大会上正式成立。统计模式识别的主要方法,包括Bayes决策、概率密度估计(参数方法和非参数方法)、特征提取(变换)和选择、聚类分析等,在20世纪60年代以前就已经成型。由于统计方法不能表示和分析模式的结构,70年代以后结构和句法模式识别方法受到重视。尤其是付京荪(K.S. Fu)提出的句法结构模式识别理论在70-80年代受到广泛的关注。但是,句法模式识别中的基元提取和文法推断(学习)问题直到现在还没有很
6、好地解决,因而没有太多的实际应用。 20世纪80年代Back-propagation (BP) 算法的重新发现和成功应用推动了人工神经网络研究和应用的热潮。神经网络方法与统计方法相比具有不依赖概率模型、参数自学习、泛化性能良好等优点,至今仍在模式识别中广泛应用。然而,神经网络的设计和实现依赖于经验,泛化性能不能确保最优。90年代支持向量机(SVM)的提出吸引了模式识别界对统计学习理论和核方法(Kernel methods)的极大兴趣。与神经网络相比,支持向量机的优点是通过优化一个泛化误差界限自动确定一个最优的分类器结构,从而具有更好的泛化性能。而核函数的引入使很多传统的统计方法从线性空间推广到
7、高维非线性空间,提高了表示和判别能力。结合多个分类器的方法从90年代前期开始在模式识别界盛行,后来受到模式识别界和机器学习界的共同重视。多分类器结合可以克服单个分类器的性能不足,有效提高分类的泛化性能。这个方向的主要研究问题有两个:给定一组分类器的最佳融合和具有互补性的分类器组的设计。其中一种方法,Boosting,现已得到广泛应用,被认为是性能最好的分类方法。 进入21世纪,模式识别研究的趋势可以概括为以下四个特点。一是Bayes学习理论越来越多地用来解决具体的模式识别和模型选择问题,产生了优异的分类性能。二是传统的问题,如概率密度估计、特征选择、聚类等不断受到新的关注,新的方法或改进/混合
8、的方法不断提出。三是模式识别领域和机器学习领域的相互渗透越来越明显,如特征提取和选择、分类、聚类、半监督学习等问题成为二者共同关注的热点。四是由于理论、方法和性能的进步,模式识别系统开始大规模地用于现实生活,如车牌识别、手写字符识别、生物特征识别等。3 模式识别的基本方法模式识别过程包括以下几个步骤:信号预处理、模式分割、特征提取、模式分类、上下文后处理。预处理通过消除信号/图像/视频中的噪声来改善模式和背景间的可分离性;模式分割是将对象模式从背景分离或将多个模式分开的过程; 特征提取是从模式中提取表示该模式结构或性质的特征并用一个数据结构(通常为一个多维特征矢量)来表示;在特征表示基础上,分
9、类器将模式判别为属于某个类别或赋予其属于某些类别的概率; 后处理则是利用对象模式与周围模式的相关性验证模式类别的过程。3.1 Bayes决策Bayes决策是统计模式识别的基础。将模式表示为一个特征矢量(多维线性空间中的一个点) ,给定个类别的条件概率密度,则模式属于各个类别的后验概率可根据 Bayes公式计算:其中是第类的先验概率。根据 Bayes 决策规则,模式x被判别为后验概率最大的类别(最小错误率决策)或期望风险最小的类别(最小代价决策)。后验概率或鉴别函数把特征空间划分为对应各个类别的决策区域。模式分类可以在概率密度估计的基础上计算后验概率密度,也可以不需要概率密度而直接近似估计后验概
10、率或鉴别函数(直接划分特征空间)。3.2 概率密度估计概率密度估计和聚类一样,是一个非监督学习过程。研究概率密度估计主要有三个意义:分类、聚类(分割)、异常点监测(Novelty detection)。在估计每个类别概率密度函数的基础上,可以用Bayes决策规则来分类。 概率密度模型经常采用高斯混合密度模型(Gaussian mixture model, GMM),其中每个密度成分可以看作是一个聚类。异常点监测又称为一类分类(One-class classification),由于只有一类模式的训练样本,在建立这类模式的概率密度模型的基础上,根据相对于该模型的似然度来判断异常模式。 高斯混合密
11、度估计常用的Expectation-Maximization (EM)算法被普遍认为存在三个问题:估计过程易陷于局部极值点,估计结果依赖于初始化值,不能自动确定密度成分的个数。对于成分个数的确定,提出了一系列的模型选择准则, 如Bayes准则15、 最小描述长度(MDL)、 Bayesian Information Criterion (BIC)、Akaike Information Criterion (AIC)、 最小消息长度(MML)等。概率密度估计的另一种新方法是稀疏核函数描述(支持向量描述)。Schlkopf 等人采用类似支持向量机的方法,用一个核特征空间的超平面将样本分为两类,使超
12、平面外的样本数不超过一个事先给定的比例。该超平面的函数是一个样本子集(支持向量)的核函数的加权平均,可以像支持向量机那样用二次规划算法求得。Tax和Duin的方法是用核空间的一个球面来区分区域内和区域外样本,同样地可以用二次规划进行优化。 3.3 特征选择特征选择和特征变换都是为了达到维数削减的目的,在降低分类器复杂度的同时可以提高分类的泛化性能。二者也经常结合起来使用,如先选择一个特征子集,然后对该子集进行变换。近年来由于适应越来越复杂(特征维数成千上万,概率密度偏离高斯分布)的分类问题的要求,不断提出新的特征选择方法,形成了新的研究热点。 特征选择的方法按照特征选择过程与分类器之间的交互程
13、度可以分为过滤式(Filter)、 Wrapper、嵌入式、混合式几种类型。过滤式特征选择是完全独立于分类器的,这也是最常见的一种特征选择方式,选择过程计算量小,但是选择的特征不一定很适合分类。 在Wrapper方法中,特征子集的性能使用一个分类器在验证样本上的正确率来衡量,这样选择的特征比较适合该分类器,但不一定适合其他的分类器。由于在特征选择过程中要评价很多特征子集(子集的数量呈指数级增长),即使采用顺序前向搜索,Wrapper的计算量都是很大的,只适合特征维数不太高的情况。Wrapper的另一个问题是当训练样本较少时会造成过拟合,泛化性能变差。特征选择的基本原则是选择类别相关(Relev
14、ant)的特征而排除冗余的特征。这种类别相关性和冗余性通常用互信息(Mutual information, MI)来度量。特征与类别之间的互信息很好地度量了特征的相关性,而特征与特征之间的互信细则度量他们之间的相似性(冗余性)。因此,基于互信息的特征选择方法一般遵循这样一种模式:在顺序前向搜索中寻找与类别互信息最大而与前面已选特征互信息最小的特征。 另外提出的条件互信息用来度量在一个已选特征的条件下另一个新的候选特征对分类的相关性。通过分析一种相关度,Symmetrical Uncertainty (SU)与特征的Markov blanket之间的关系,设计一种快速的两步特征选择方法:先根据单
15、个特征与类别之间的相关度选出相关特征,第二步对相关特征根据特征-类别相关度和特征-特征相关度进行筛选。 3.4 分类器设计 模式分类是模式识别研究的核心内容,迄今为止提出了大量的分类方法。Jain等人把分类器分为三种类型:基于相似度(或距离度量)的分类器、基于概率密度的分类器、基于决策边界的分类器。第一种分类器的性能取决于相似度或距离度量的设计,同时也取决于标板(Prototype)的学习。标板学习有多种方法,如聚类、LVQ (Learning Vector Quantization)、经验风险最小化等。LVQ和经验风险最小化可以看作是决策边界调整的学习方法,而聚类的作用类似概率密度估计。因此
16、,我们把分类器分为三类:生成模型(包括概率密度模型)、判别模型(决策边界学习模型)、混合生成-判别模型。4 模式识别的应用 4.1文字识别在信息技术及计算机技术日益普及的今天,如何将文字方便、快速地输入到计算机中已成为影响人机接口效率的一个重要瓶颈,也关系到计算机能否真正在我过得到普及的应用。目前,汉字输入主要分为人工键盘输入和机器自动识别输入两种。其中人工键入速度慢而且劳动强度大;自动输入又分为汉字识别输入及语音识别输入。从识别技术的难度来说,手写体识别的难度高于印刷体识别,而在手写体识别中,脱机手写体的难度又远远超过了连机手写体识别。到目前为止,除了脱机手写体数字的识别已有实际应用外,汉字
17、等文字的脱机手写体识别还处在实验室阶段。 4.2 语音识别语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。近年来,在生物识别技术领域中,声纹识别技术以其独特的方便性、经济性和准确性等优势受到世人瞩目,并日益成为人们日常生活和工作中重要且普及的安验证方式。而且利用基因算法训练连续隐马尔柯夫模型的语音识别方法现已成为语音识别的主流技术,该方法在语音识别时识别速度较快,也有较高的识别率。 4.3 指纹识别我们手掌及其手指、脚、脚趾内侧表面的皮肤凹凸不平产生的纹路会形成各种各样的图案。而这些皮肤的纹路在图案、断点和交叉点上各不相同,是唯一的。依靠这种
18、唯一性,就可以将一个人同他的指纹对应起来,通过比较他的指纹和预先保存的指纹进行比较,便可以验证他的真实身份。一般的指纹分成有以下几个大的类别:left loop,right loop,twin loop,whorl,arch和tented arch,这样就可以将每个人的指纹分别归类,进行检索。指纹识别基本上可分成:预处理、特征选择和模式分类几个大的步骤。4.4数字水印技术90年代以来才在国际上开始发展起来的数字水印技术是最具发展潜力与优势的数字媒体版权保护技术。5.模式识别的发展趋势 除了在发展历史中介绍的研究进展,模式识别领域的前沿研究方向还有:Bayes学习、半监督学习、弱监督学习等。Ba
19、yes学习得到的分类器参数并不是一些固定值,而是参数的概率分布。参数的先验概率分布函数形式的选择、超参数(先验概率分布的参数)的确定在计算上是比较复杂的。在识别时,需要对分类器的参数进行随机采样,然后把很多个参数值得到的分类结果组合起来,因而识别的计算量也是很大的。近年来,基于Bayes学习的分类器设计取得了明显进展等,得到了优异的分类性能。但是,这些方法的计算还是很复杂的,对于大类别数、大样本集的学习问题还难以实现。 6. 结语 模式识别从20世纪20年代发展至今,人们的一种普遍看法是不存在对所有模式识别问题都适用的单一模型和解决识别问题的单一技术,我们现在所要做的是结合具体问题把统计的和句法的识别结合起来,把统计模式识别或句法模式识别与人工智能中的启发式搜索结合起来,把统计模式识别或句法模式识别与支持向量机的机器学习结合起来,把人工神经元网络与各种已有技术以及人工智能中的专家系统、不确定推理方法结合起来,深入掌握各种工具的效能和应有的可能性,互相取长补短,开创模式识别应用的新局面。专心-专注-专业