(真正的好东西)偏最小二乘回归=多元线性回归分析+典型相关分析+主成分分析复习课程.doc

上传人:1595****071 文档编号:51397163 上传时间:2022-10-18 格式:DOC 页数:28 大小:851.50KB
返回 下载 相关 举报
(真正的好东西)偏最小二乘回归=多元线性回归分析+典型相关分析+主成分分析复习课程.doc_第1页
第1页 / 共28页
(真正的好东西)偏最小二乘回归=多元线性回归分析+典型相关分析+主成分分析复习课程.doc_第2页
第2页 / 共28页
点击查看更多>>
资源描述

《(真正的好东西)偏最小二乘回归=多元线性回归分析+典型相关分析+主成分分析复习课程.doc》由会员分享,可在线阅读,更多相关《(真正的好东西)偏最小二乘回归=多元线性回归分析+典型相关分析+主成分分析复习课程.doc(28页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、Good is good, but better carries it.精益求精,善益求善。(真正的好东西)偏最小二乘回归=多元线性回归分析+典型相关分析+主成分分析-偏最小二乘回归是一种新型的多元统计数据分析方法,它与1983年由伍德和阿巴诺等人首次提出。近十年来,它在理论、方法和应用方面都得到了迅速的发展。密西根大学的弗耐尔教授称偏最小二乘回归为第二代回归分析方法。偏最小二乘回归方法在统计应用中的重要性主要的有以下几个方面:(1)偏最小二乘回归是一种多因变量对多自变量的回归建模方法。(2)偏最小二乘回归可以较好地解决许多以往用普通多元回归无法解决的问题。在普通多元线形回归的应用中,我们常受

2、到许多限制。最典型的问题就是自变量之间的多重相关性。如果采用普通的最小二乘方法,这种变量多重相关性就会严重危害参数估计,扩大模型误差,并破坏模型的稳定性。变量多重相关问题十分复杂,长期以来在理论和方法上都未给出满意的答案,这一直困扰着从事实际系统分析的工作人员。在偏最小二乘回归中开辟了一种有效的技术途径,它利用对系统中的数据信息进行分解和筛选的方式,提取对因变量的解释性最强的综合变量,辨识系统中的信息与噪声,从而更好地克服变量多重相关性在系统建模中的不良作用。(3)偏最小二乘回归之所以被称为第二代回归方法,还由于它可以实现多种数据分析方法的综合应用。偏最小二乘回归=多元线性回归分析+典型相关分

3、析+主成分分析由于偏最小二乘回归在建模的同时实现了数据结构的简化,因此,可以在二维平面图上对多维数据的特性进行观察,这使得偏最小二乘回归分析的图形功能十分强大。在一次偏最小二乘回归分析计算后,不但可以得到多因变量对多自变量的回归模型,而且可以在平面图上直接观察两组变量之间的相关关系,以及观察样本点间的相似性结构。这种高维数据多个层面的可视见性,可以使数据系统的分析内容更加丰富,同时又可以对所建立的回归模型给予许多更详细深入的实际解释。一、偏最小二乘回归的建模策略原理方法1.1建模原理设有q个因变量和p自变量。为了研究因变量和自变量的统计关系,我们观测了n个样本点,由此构成了自变量与因变量的数据

4、表X=和.Y=。偏最小二乘回归分别在X与Y中提取出成分和(也就是说,是的线形组合,是的线形组合).在提取这两个成分时,为了回归分析的需要,有下列两个要求:(1)和应尽可能大地携带他们各自数据表中的变异信息;(2)与的相关程度能够达到最大。这两个要求表明,和应尽可能好的代表数据表X和Y,同时自变量的成分对因变量的成分又有最强的解释能力。在第一个成分和被提取后,偏最小二乘回归分别实施X对的回归以及Y对的回归。如果回归方程已经达到满意的精度,则算法终止;否则,将利用X被解释后的残余信息以及Y被解释后的残余信息进行第二轮的成分提取。如此往复,直到能达到一个较满意的精度为止。若最终对X共提取了m个成分,

5、偏最小二乘回归将通过实施对,的回归,然后再表达成关于原变量,的回归方程,k=1,2,q。1.2计算方法推导为了数学推导方便起见,首先将数据做标准化处理。X经标准化处理后的数据矩阵记为=(,),经标准化处理后的数据矩阵记为=(,)。第一步记是的第一个成分,是的第一个轴,它是一个单位向量,既|=1。记是的第一个成分,=。是的第一个轴,并且|=1。如果要,能分别很好的代表X与Y中的数据变异信息,根据主成分分析原理,应该有Var()maxVar()max另一方面,由于回归建模的需要,又要求对有很大的解释能力,有典型相关分析的思路,与的相关度应达到最大值,既r(,)max因此,综合起来,在偏最小二乘回归

6、中,我们要求与的协方差达到最大,既Cov(,)=r(,)max正规的数学表述应该是求解下列优化问题,既s.t因此,将在|=1和|=1的约束条件下,去求()的最大值。如果采用拉格朗日算法,记s=(1)(1)对s分别求关于,和的偏导并令之为零,有=0(1-2)=0(1-3)=(1)=0(1-4)=(1)=0(1-5)由式(1-2)(1-5),可以推出记,所以,正是优化问题的目标函数值.把式(1-2)和式(1-3)写成(1-6)(1-7)将式(1-7)代入式(1-6),有(1-8)同理,可得(1-9)可见,是矩阵的特征向量,对应的特征值为.是目标函数值,它要求取最大值,所以,是对应于矩阵最大特征值的

7、单位特征向量.而另一方面,是对应于矩阵最大特征值的单位特征向量.求得轴和后,即可得到成分然后,分别求和对,的三个回归方程(1-10)(1-11)(1-12)式中,回归系数向量是(1-13)(1-14)(1-15)而,分别是三个回归方程的残差矩阵.第二步用残差矩阵和取代和,然后,求第二个轴和以及第二个成分,有=是对应于矩阵最大特征值的特征值,是对应于矩阵最大特征值的特征向量.计算回归系数因此,有回归方程如此计算下去,如果的秩是,则会有(1-16)(1-17)由于,均可以表示成的线性组合,因此,式(1-17)还可以还原成关于的回归方程形式,即k=1,2,q是残差距阵的第k列。1.3交叉有效性下面要

8、讨论的问题是在现有的数据表下,如何确定更好的回归方程。在许多情形下,偏最小二乘回归方程并不需要选用全部的成分进行回归建模,而是可以象在主成分分析一样,采用截尾的方式选择前m个成分,仅用这m个后续的成分就可以得到一个预测性较好的模型。事实上,如果后续的成分已经不能为解释提供更有意义的信息时,采用过多的成分只会破坏对统计趋势的认识,引导错误的预测结论。在多元回归分析一章中,我们曾在调整复测定系数的内容中讨论过这一观点。下面的问题是怎样来确定所应提取的成分个数。在多元回归分析中,曾介绍过用抽样测试法来确定回归模型是否适于预测应用。我们把手中的数据分成两部分:第一部分用于建立回归方程,求出回归系数估计

9、量,拟合值以及残差均方和;再用第二部分数据作为实验点,代入刚才所求得的回归方程,由此求出。一般地,若有,则回归方程会有更好的预测效果。若,则回归方程不宜用于预测。在偏最小二乘回归建模中,究竟应该选取多少个成分为宜,这可通过考察增加一个新的成分后,能否对模型的预测功能有明显的改进来考虑。采用类似于抽样测试法的工作方式,把所有n个样本点分成两部分:第一部分除去某个样本点的所有样本点集合(共含n-1个样本点),用这部分样本点并使用h个成分拟合一个回归方程;第二部分是把刚才被排除的样本点代入前面拟合的回归方程,得到在样本点上的拟合值。对于每一个=1,2,n,重复上述测试,则可以定义的预测误差平方和为,

10、有(1-18)定义Y的预测误差平方和为,有(1-19)显然,如果回归方程的稳健性不好,误差就很大,它对样本点的变动就会十分敏感,这种扰动误差的作用,就会加大的值。另外,再采用所有的样本点,拟合含h个成分的回归方程。这是,记第个样本点的预测值为,则可以记的误差平方和为,有(1-20)定义Y的误差平方和为,有(1-21)一般说来,总是有大于,而则总是小于。下面比较和。是用全部样本点拟合的具有h-1个成分的方程的拟合误差;增加了一个成分,但却含有样本点的扰动误差。如果h个成分的回归方程的含扰动误差能在一定程度上小于(h-1)个成分回归方程的拟合误差,则认为增加一个成分,会使预测结果明显提高。因此我们

11、希望的比值能越小越好。在SIMCA-P软件中,指定即时,增加成分就是有益的;或者反过来说,当时,就认为增加新的成分,对减少方程的预测误差无明显的改善作用.另有一种等价的定义称为交叉有效性。对每一个变量,定义(1-22)对于全部因变量Y,成分交叉有效性定义为(1-23)用交叉有效性测量成分对预测模型精度的边际贡献有如下两个尺度。(1) 当时,成分的边际贡献是显著的。显而易见,与是完全等价的决策原则。对于k=1,2,q,至少有一个k,使得这时增加成分,至少使一个因变量的预测模型得到显著的改善,因此,也可以考虑增加成分是明显有益的。明确了偏最小二乘回归方法的基本原理、方法及算法步骤后,我们将做实证分

12、析。附录functionw=maxdet(A)%求矩阵的最大特征值v,d=eig(A);n,p=size(d);d1=d*ones(p,1);d2=max(d1);i=find(d1=d2);w=v(:,i);%functionc,m,v=norm1(C)%对数据进行标准化处理n,s=size(C);fori=1:nforj=1:sc(i,j)=(C(i,j)-mean(C(:,j)/sqrt(cov(C(:,j);endendm=mean(C);forj=1:sv(1,j)=sqrt(cov(C(:,j);end%functiont,q,w,wh,f0,FF=fun717(px,py,C)%

13、px自变量的输入个数%py输入因变量的个数。%C输入的自变量和因变量组成的矩阵%t提取的主成分%q为回归系数。%w最大特征值所对应的特征向量。%wh处理后的特征向量%f0回归的标准化的方程系数%FF原始变量的回归方程的系数c=norm1(C);%norm1为标准化函数y=c(:,px+1:px+py);%截取标准化的因变量E0=c(:,1:px);F0=c(:,px+1:px+py);A=E0*F0*F0*E0;w(:,1)=maxdet(A);%求最大特征向量t(:,1)=E0*w(:,1);%提取主成分E(:,1:px)=E0-t(:,1)*(E0*t(:,1)/(t(:,1)*t(:,1

14、);%获得回归系数p(:,1:px)=(E0*t(:,1)/(t(:,1)*t(:,1);fori=0:px-2B(:,px*i+1:px*i+px)=E(:,px*i+1:px*i+px)*F0*F0*E(:,px*i+1:px*i+px);w(:,i+2)=maxdet(B(:,px*i+1:px*i+px);%maxdet为求最大特征值的函数t(:,i+2)=E(:,px*i+1:px*i+px)*w(:,i+2);p(:,px*i+px+1:px*i+2*px)=(E(:,px*i+1:px*i+px)*t(:,i+2)/(t(:,i+2)*t(:,i+2);E(:,px*i+px+1

15、:px*i+2*px)=E(:,px*i+1:px*i+px)-t(:,i+2)*(E(:,px*i+1:px*i+px)*t(:,i+2)/(t(:,i+2)*t(:,i+2);endfors=1:pxq(:,s)=p(1,px*(s-1)+1:px*s);endn,d=size(q);forh=1:pxiw=eye(d);forj=1:h-1iw=iw*(eye(d)-w(:,j)*q(:,j);endwh(:,h)=iw*w(:,h);endforj=1:pyzr(j,:)=(regress1(y(:,j),t);%求回归系数endforj=1:pxfori=1:py%生成标准化变量的方

16、程的系数矩阵w1=wh(:,1:j);zr1=(zr(i,1:j);f0(i,:,j)=(w1*zr1);endnormxy,meanxy,covxy=norm1(C);%normxy标准化后的数据矩阵%meanxy每一列的均值%covxy每一列的方差ccxx=ones(py,1)*meanxy(1,1:px);ccy=(covxy(1,px+1:px+py)*ones(1,px);ccx=ones(py,1)*(covxy(1,1:px);ff=ccy.*f0(:,:,j)./ccx;fff=-(sum(ccy.*ccxx.*f0(:,:,j)./ccx)-meanxy(1,px+1:px+

17、py);FF(:,:,j)=fff,ff;%生成原始变量方程的常数项和系数矩阵end%functionr,Rdyt,RdYt,RdYtt,Rdytt,VIP=fun8y(px,py,c)X=c(:,1:px);Y=c(:,px+1:px+py);x=norm1(X);y=norm1(Y);t,q,w=fun717(px,py,X,Y);r1=corrcoef(y,t);r=r1(py+1:px+py,1:py);Rdyt=r.2;RdYt=mean(Rdyt)form=1:pxRdYtt(1,m)=sum(RdYt(1,1:m);endforj=1:pyform=1:pyRdytt(j,m)=

18、sum(Rdyt(j,1:m);endendforj=1:pxform=1:pxRd(j,m)=RdYt(1,1:m)*(w(j,1:m).2);endendforj=1:pxVIP(j,:)=sqrt(px*ones(1,px)./RdYtt).*Rd(j,:);end%functionr,Rdxt,RdXt,RdXtt,Rdxtt=fun8x(px,py,c)X=c(:,1:px);Y=c(:,px+1:px+py);x=norm1(X);y=norm1(Y);t,q,w=fun717(px,py,X,Y);r1=corrcoef(x,t);r=r1(px+1:px+px,1:px);Rd

19、xt=r.2;RdXt=mean(Rdxt);form=1:pxRdXtt(1,m)=sum(RdXt(1,1:m);endforj=1:pxform=1:pxRdxtt(j,m)=sum(Rdxt(j,1:m);endend%forj=1:px%form=1:px%Rd(j,m)=RdXt(1,1:m)*(w(j,1:m).2);%end%end%forj=1:px%VIP(j,:)=sqrt(px*ones(1,px)./RdYtt).*Rd(j,:);%end%functiont,u=TU(px,py,C)%t提取的自变量的主成分%u提取的因变量的主成分c=norm1(C);y=c(:,

20、px+1:px+py);E0=c(:,1:px);F0=c(:,px+1:px+py);A=E0*F0*F0*E0;w(:,1)=maxdet(A);t(:,1)=E0*w(:,1);B=F0*E0*E0*F0;cc(:,1)=maxdet(B);u(:,1)=F0*cc(:,1);%functiondrew(px,py,c)X=c(:,1:px);Y=c(:,px+1:px+py);line,l=size(Y);t,q,w,wh,f0,FF=fun717(px,py,c);YY=X*FF(:,2:px+1,3)+ones(line,1)*FF(:,1,3);subplot(1,1,1,1)b

21、ar(f0(:,:,3)title(直方图)legend(SG,TZBFB,FHL,JK,HPZD,JPZD,TZ,ZG,GPK)gridonplot(YY(:,4),Y(:,4),+);lslinefori=1:pyv=mod(i,4);d=(i-v)/4;subplot(2,2,v,d+1)plot(YY(:,i),Y(:,i),*);lslineend%functionQhj,Qh,prey=crossval7(px,py,c)%px是自变量的个数;%py是因量PRESShj=zeros(px,py);X=c(:,1:px);Y=c(:,px+1:px+py);x=norm1(X);y=

22、norm1(Y);line,row=size(x);forh=1:pxforj=1:linenewx=X;newy=Y;newx(j,:)=;newy(j,:)=;t,p0,w,wh,f0,FF=fun717(px,py,newx,newy);prey(j,:,h)=X(j,:)*FF(:,2:px+1,h)+FF(:,1,h);endPRESShj(h,:)=sum(Y-prey(:,:,h).2);endPRESSh=(sum(PRESShj);forh=1:pxt1,p0,w,wh,f0,FF=fun717(px,py,c);prey2(:,:,h)=X(:,:)*FF(:,2:px+1,h)+ones(line,1)*FF(:,1,h);SShj(h,:)=sum(Y-prey2(:,:,h).2);endSSh=(sum(SShj);Qhj=ones(px-1,py)-PRESShj(2:px,:)./SShj(1:px-1,:);%错位Qh=ones(px-1,1)-PRESSh(2:px,1)./SSh(1:px-1,1);-

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高考资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁