《2022年支持向量机算法介绍 .pdf》由会员分享,可在线阅读,更多相关《2022年支持向量机算法介绍 .pdf(6页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、支持向量机算法介绍众所周知,统计模式识别、线性或非线性回归以及人工神经网络等方法是数据挖掘的有效工具,已随着计算机硬件和软件技术的发展得到了广泛的应用。但多年来我们也受制于一个难题:传统的模式识别或人工神经网络方法都要求有较多的训练样本,而许多实际课题中已知样本较少。对于小样本集,训练结果最好的模型不一定是预报能力最好的模型。因此,如何从小样本集出发,得到预报(推广)能力较好的模型,遂成为模式识别研究领域内的一个难点,即所谓“小样本难题 ”。支持向量机(support vector machine ,简称 SVM )算法已得到国际数据挖掘学术界的重视,并在语音识别、文字识别、药物设计、组合化学
2、、时间序列预测等研究领域得到成功应用。1、线性可分情形SVM 算法是从线性可分情况下的最优分类面(Optimal Hyperplane)提出的。所谓最优分类面就是要求分类面不但能将两类样本点无错误地分开,而且要使两类的分类空隙最大。设线性可分样本集为,d维空间中线性判),(iiyxdRxni, 1L 1, 1y别函数的一般形式为,bxwxgT分类面方程是,0bxwT我们将判别函数进行归一化,使两类所有样本都满足,此时离分类面最近1xg的样本的,而要求分类面对所有样本都能正确分类,就是要求它满足1xg。( 4)nibxwyiTi, 2, 1, 01)(L名师资料总结 - - -精品资料欢迎下载
3、- - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 1 页,共 6 页 - - - - - - - - - 式( 4)中使等号成立的那些样本叫做支持向量(Support Vectors)。两类样本的分类空隙( Margin )的间隔大小:Margin =(5)w/2因此,最优分类面问题可以表示成如下的约束优化问题,即在条件(4)的约束下,求函数(6)(21221wwwwT的最小值。为此,可以定义如下的Lagrange函数:(7) 1)(21),(1bxwyawwabwLiTiniiT其中,为Lagrange系数,我们的问题是对w
4、和b求Lagrange函数的最小值。把式0ia(7)分别对 w、b、求偏微分并令它们等于0,得:iaiiniixyawwL10001iniiyabL0 1)(0bxwyaaLiTiii以上三式加上原约束条件可以把原问题转化为如下凸二次规划的对偶问题: (8)0,1,0.max111121iniiijTijijninjiniiyaniatsxxyyaaaL这是一个不等式约束下二次函数机制问题,存在唯一最优解。若为最优解,则*ia (9) niiiixyaw1*不为零的样本即为支持向量,因此,最优分类面的权系数向量是支持向量的线性组合。*ia名师资料总结 - - -精品资料欢迎下载 - - - -
5、 - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 2 页,共 6 页 - - - - - - - - - b*可由约束条件求解,由此求得的最优分类函数是:0 1)(bxwyaiTii(10)sgn()sgn(*1*bxxyabxwxfniiiiTsgn()为符号函数。2、线性不可分情形当用一个超平面不能把两类点完全分开时(只有少数点被错分),可以引入松弛变量(0, ),使超平面满足:iini, 1L0bxwT (11)iiTibxwy1)(当01时样本点 xi仍旧被正确分类,而当1时样本点 xi被错分。为此,引入以下目ii标函数:(12)n
6、iiTCwww121),(其中 C是一个正常数,称为惩罚因子,此时SVM 可以通过二次规划(对偶规划)来实现:(13)0,1,0.max111121iniiijTijijninjiniiyaniCatsxxyyaaaL3、支持向量机( SVM)的核函数名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 3 页,共 6 页 - - - - - - - - - 若在原始空间中的简单超平面不能得到满意的分类效果,则必须以复杂的超曲面作为分界面, SVM 算法是如何求得这一复杂超曲面的呢?首先通
7、过非线性变换将输入空间变换到一个高维空间,然后在这个新空间中求取最优线性分类面,而这种非线性变换是通过定义适当的核函数 (内积函数)实现的,令:(14)()(),(jijixxxxK用核函数代替最优分类平面中的点积,就相当于把原特征空间变换),(jixxKjTixx到了某一新的特征空间,此时优化函数变为:(15)aQjijijninjiniixxKyya,11121而相应的判别函数式则为:(16)),(sgn()()sgn(*1*bxxKyabxwxfniiiiT其中为支持向量,为未知向量, (16)式就是 SVM ,在分类函数形式上类似于一个神ixx经网络,其输出是若干中间层节点的线性组合,
8、而每一个中间层节点对应于输入样本与一个支持向量的内积,因此也被叫做支持向量网络,如图1k(x1,x)k(x2,x)k(x3,x)x1x2x3x4y持向量网络预报未知样本类别的示意图ig.1 The sketch map of support vector network to predict an unknown samplesiiiibxxKyay1,sgnS 个支撑向量机的非线性变换入向量=(x1,x2,xd)图1 支持向量网络预报未知样本类别的示意图Fig.1 The sketch map of support vector network to predict an unknown s
9、ample 名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 4 页,共 6 页 - - - - - - - - - 由于最终的判别函数中实际只包含未知向量与支持向量的内积的线性组合,因此识别时的计算复杂度取决于支持向量的个数。目前常用的核函数形式主要有以下三类,它们都与已有的算法有对应关系。(1) 多项式形式的核函数,即,对应 SVM 是一个 q 阶多项式分类ixxK,qiTxx1器。(2) 径向基形式的核函数,即,对应 SVM 是一种径向基函数ixxK,exp22ixx分类器。(3
10、) S 形核函数,如则 SVM 实现的就是一个两层的感知ixxK,),)(tanh(cxxviT器神经网络,只是在这里不但网络的权值、而且网络的隐层节点数目也是由算法自动确定的。名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 5 页,共 6 页 - - - - - - - - - 名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 6 页,共 6 页 - - - - - - - - -