《CHAP11 回归分析.ppt》由会员分享,可在线阅读,更多相关《CHAP11 回归分析.ppt(56页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、第11章 回归分析介绍:介绍:1、回归分析的概念和模型、回归分析的概念和模型 2、回归分析的过程、回归分析的过程回归分析的概念寻求有关联(相关)的变量之间的关系寻求有关联(相关)的变量之间的关系主要内容:主要内容:n从一组样本数据出发,确定这些变量间的定从一组样本数据出发,确定这些变量间的定量关系式量关系式n对这些关系式的可信度进行各种统计检验对这些关系式的可信度进行各种统计检验n从影响某一变量的诸多变量中,判断哪些变从影响某一变量的诸多变量中,判断哪些变量的影响显著,哪些不显著量的影响显著,哪些不显著n利用求得的关系式进行预测和控制利用求得的关系式进行预测和控制回归分析的模型按是否线性分:线
2、性回归模型和非线性回按是否线性分:线性回归模型和非线性回归模型归模型按自变量个数分:简单的一元回归,多元按自变量个数分:简单的一元回归,多元回归回归回归分析的模型基本的步骤:利用基本的步骤:利用SPSS得到模型关系式,得到模型关系式,是否是我们所要的,要看回归方程的显著是否是我们所要的,要看回归方程的显著性检验(性检验(F检验)和回归系数检验)和回归系数b的显著性检的显著性检验验(T检验检验),还要看拟合程度,还要看拟合程度R2(相关系数相关系数的平方的平方,一元回归用一元回归用R Square,多元回归多元回归用用Adjusted R Square)回归分析的过程在回归过程中包括:在回归过程
3、中包括:nLiner:线性回归线性回归nCurve Estimation:曲线估计曲线估计nBinary Logistic:二分变量逻辑回归二分变量逻辑回归回归分析的过程nMultinomial Logistic:多分变量逻辑回归多分变量逻辑回归nOrdinal 序回归序回归nProbit:概率单位回归概率单位回归nNonlinear:非线性回归非线性回归nWeight Estimation:加权估计加权估计n2-Stage Least squares:二段最小平方法二段最小平方法nOptimal Scaling 最优编码回归最优编码回归11.1 线性回归(Liner)一元线性回归方程一元线性
4、回归方程:y=a+bxna称为截距称为截距nb为回归直线的斜率为回归直线的斜率n用用R2判定系数判定一个线性回归直线的拟合判定系数判定一个线性回归直线的拟合程度:用来说明用自变量解释因变量变异的程度:用来说明用自变量解释因变量变异的程度(所占比例)程度(所占比例)回归方程回归方程的显著性检验回归方程的显著性检验 目的目的:检验自变量与因变量之间的线性关系是检验自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示否显著,是否可用线性模型来表示.检验方法:检验方法:t检验检验 F检验检验(一元回归中一元回归中,F检验与检验与t检验一致检验一致,两种检两种检验可以相互替代)验可以相互替代)回
5、归方程附:残差分析:附:残差分析:残差序列的正态性分析残差序列的正态性分析 可以绘制标准化残差序列的带正态曲线的直方可以绘制标准化残差序列的带正态曲线的直方图或累计概率图来分析;图或累计概率图来分析;残差序列的随机性分析残差序列的随机性分析 可以绘制残差序列和对应的预测值序列的散点可以绘制残差序列和对应的预测值序列的散点图。如果残差序列是随机的,那么残差序列图。如果残差序列是随机的,那么残差序列应与预测值序列无关,残差序列点将随机地应与预测值序列无关,残差序列点将随机地分布在经过零的一条直线上下;分布在经过零的一条直线上下;回归方程残差序列的独立性分析残差序列的独立性分析 目的是分析残差序列是
6、否存在后期值与前期值目的是分析残差序列是否存在后期值与前期值相关的现象。如果存在相关现象,表示残差序相关的现象。如果存在相关现象,表示残差序列中还存有一些规律性,回归方程没能较全面列中还存有一些规律性,回归方程没能较全面地反映因变量的变化。地反映因变量的变化。一般用一般用D-W检验作残差序列的独立性分析。检验作残差序列的独立性分析。D-W值值=0:完全正自相关;:完全正自相关;D-W值值=4:完:完全负自相关;全负自相关;D-W值在值在0和和2之间:正自相关;之间:正自相关;D-W值在值在2和和4之间:负自相关。实际应用中,之间:负自相关。实际应用中,接近接近2就可以认为残差序列具有独立性。就
7、可以认为残差序列具有独立性。奇异值(Casewise或Outliers)诊断 概念概念 奇异值指样本数据中远离均值的样本数据奇异值指样本数据中远离均值的样本数据点,会对回归方程的拟合产生较大偏差影响。点,会对回归方程的拟合产生较大偏差影响。诊断标准诊断标准 一般认为,如果某样本点对应的标准化残一般认为,如果某样本点对应的标准化残差值超出了差值超出了-3,+3的范围,就可以判定该的范围,就可以判定该样本数据为奇异值。样本数据为奇异值。线性回归方程的预测点估计点估计 y0区间估计区间估计 95%的近似置信区间的近似置信区间:y0-2Sy,y0+2Sy.x0为为xi的均值时的均值时,预测区预测区间最
8、小间最小,精度最高精度最高.x0越远离均值越远离均值,预测区预测区间越大间越大,精度越低精度越低.线性回归(Liner)一元线性回归模型的确定一元线性回归模型的确定:一般先做散点一般先做散点图图(Graphs-Scatter-Simple),以便以便进行简单地观测(如:进行简单地观测(如:Salary与与Salbegin的关系的关系)若散点图的趋势大概呈线性关系,可以若散点图的趋势大概呈线性关系,可以建立线性方程,若不呈线性分布,可建建立线性方程,若不呈线性分布,可建立其它方程模型,并比较立其它方程模型,并比较R2(-1)来来确定一种最佳方程式(曲线估计)确定一种最佳方程式(曲线估计)线性回归
9、(Liner)多元线性回归方程多元线性回归方程:y=b0+b1x1+b2x2+bnxnnb0为常数项为常数项nb1、b2、bn称为称为y对应于对应于x1、x2、xn的偏回归系数的偏回归系数n用用Adjusted R2调整判定系数判定一个多元调整判定系数判定一个多元线性回归方程的拟合程度:用来说明用自变线性回归方程的拟合程度:用来说明用自变量解释因变量变异的程度(所占比例)量解释因变量变异的程度(所占比例)多元线性回归分析中的自变量筛选自变量筛选的目的自变量筛选的目的 多元回归分析引入多个自变量多元回归分析引入多个自变量.如果引入如果引入的自变量个数较少的自变量个数较少,则不能很好的说明因则不能
10、很好的说明因变量的变化变量的变化;但并非自变量引入越多越好但并非自变量引入越多越好.原因原因:有些有些自变量可能对因变量的解释没有贡献,自变量可能对因变量的解释没有贡献,自变量间可能存在较强的线性关系自变量间可能存在较强的线性关系,即即:多重共线性多重共线性.因而不能全部引入回归方程因而不能全部引入回归方程.多元线性回归分析中的自变量筛选自变量筛选法自变量筛选法 向前筛选法向前筛选法(forward),是自变量不断进入回归是自变量不断进入回归方程的过程方程的过程.向后筛选法向后筛选法(backward),是自变量不断剔除出回是自变量不断剔除出回归方程的过程归方程的过程 逐步筛选法逐步筛选法(s
11、tepwise),是是“向前法向前法”和和“向后向后法法”的结合的结合多元线性回归一般采用逐步回归方法多元线性回归一般采用逐步回归方法-Stepwise逐步回归方法的基本思想对全部的自变量对全部的自变量x1,x2,.,xp,按它们对按它们对Y贡献的大小进贡献的大小进行比较,并通过行比较,并通过F检验法,选择偏回归平方和显著的变量检验法,选择偏回归平方和显著的变量进入回归方程,每一步只引入一个变量,同时建立一个回进入回归方程,每一步只引入一个变量,同时建立一个回归方程。当一个变量被引入后,对原已引入回归方程的变归方程。当一个变量被引入后,对原已引入回归方程的变量,逐个检验他们的偏回归平方和。如果
12、由于引入新的变量,逐个检验他们的偏回归平方和。如果由于引入新的变量而使得已进入方程的变量变为不显著时,则及时从回归量而使得已进入方程的变量变为不显著时,则及时从回归方程中剔除。在引入了两个自变量以后,便开始考虑是否方程中剔除。在引入了两个自变量以后,便开始考虑是否有需要剔除的变量。只有当回归方程中的所有自变量对有需要剔除的变量。只有当回归方程中的所有自变量对Y都有显著影响而不需要剔除时,在考虑从未选入方程的自都有显著影响而不需要剔除时,在考虑从未选入方程的自变量中,挑选对变量中,挑选对Y有显著影响的新的变量进入方程。不论有显著影响的新的变量进入方程。不论引入还是剔除一个变量都称为一步。不断重复
13、这一过程,引入还是剔除一个变量都称为一步。不断重复这一过程,直至无法剔除已引入的变量,也无法再引入新的自变量时,直至无法剔除已引入的变量,也无法再引入新的自变量时,逐步回归过程结束。逐步回归过程结束。线性回归分析中的共线性检测共线性带来的主要问题共线性带来的主要问题 主要是会给自变量的偏回归系数的估计带来困主要是会给自变量的偏回归系数的估计带来困难。偏回归系数的估计方差会随着自变量相关难。偏回归系数的估计方差会随着自变量相关性的增大而不断增大,从而使偏回归系数的置性的增大而不断增大,从而使偏回归系数的置信区间不断增大,偏回归系数假设检验的结果信区间不断增大,偏回归系数假设检验的结果不显著等。不
14、显著等。线性回归分析中的共线性检测共线性诊断共线性诊断 A、自变量的容忍度自变量的容忍度(tolerance)和方差膨胀因和方差膨胀因子子 容忍度容忍度=1减去减去Ri的平方的平方Ri:自变量自变量Xi与其它自变量与其它自变量X之间的复相关系数。之间的复相关系数。容忍度较小(小于容忍度较小(小于0.1)时,即可以认为自变量)时,即可以认为自变量Xi与其它自变量之间存在较强的共线性。与其它自变量之间存在较强的共线性。线性回归分析中的共线性检测方差膨胀因子方差膨胀因子=容忍度的倒数容忍度的倒数方差膨胀因子越大(如大于方差膨胀因子越大(如大于10),存在共线性的),存在共线性的可能性越大。可能性越大
15、。B、用特征根和条件指数刻画自变量的方差(利用特征根和条件指数刻画自变量的方差(利用主成分分析方法)用主成分分析方法)11.1.6 线性回归分析实例p329实例:实例:Data11-13 建立一个以初始工资建立一个以初始工资Salbegin、工作经验工作经验prevexp、工作时间工作时间jobtime、工作种类工作种类jobcat、受教育年限受教育年限edcu等为等为自变量,当前工资自变量,当前工资Salary为因变量的为因变量的回归模型。回归模型。线性回归分析实例先做数据散点图先做数据散点图,观测因变量观测因变量Salary与自变与自变量量Salbegin之间关系是否有线性特点之间关系是否
16、有线性特点Graphs-Scatter-SimpleX Axis:SalbeginY Axis:Salary线性回归分析实例若散点图的趋势大概呈线性关系,可以建立线性若散点图的趋势大概呈线性关系,可以建立线性回归模型回归模型Analyze-Regression-LinearDependent:SalaryIndependents:Salbegin,prevexp,jobtime,jobcat,edcu等等变量变量Method:Stepwise线性回归分析实例比较有用的结果:比较有用的结果:拟合程度拟合程度Adjusted R2:越接近越接近1拟合程度越好拟合程度越好回归方程的显著性检验回归方程
17、的显著性检验Sig回归系数表回归系数表Coefficients的的Model最后一个中的回归最后一个中的回归系数系数B和显著性检验和显著性检验Sig得模型:得模型:Salary=-15038.6+1.37Salbegin+5859.59jobcat-11.2 曲线估计(Curve Estimation)对于对于一元回归一元回归,若散点图的趋若散点图的趋势不呈线性分势不呈线性分布,可以利用布,可以利用曲线估计方便曲线估计方便地进行线性拟地进行线性拟合合(liner)、二次拟合二次拟合(Quadratic)、三次拟合三次拟合(Cubic)等。等。采用哪种拟合采用哪种拟合方式主要取决方式主要取决于各
18、种拟合模于各种拟合模型对数据的充型对数据的充分描述分描述(看看修修正正Adjusted R2-1)不同模型的表示不同模型的表示模型名称模型名称回归方程回归方程相应的线性回归方程相应的线性回归方程Linear(线性线性)Y=b0+b1tQuadratic(二次二次)Y=b0+b1t+b2t2Compound(复合复合)Y=b0(b1t)Ln(Y)=ln(b0)+ln(b1)tGrowth(生长生长)Y=eb0+b1tLn(Y)=b0+b1tLogarithmic(对数对数)Y=b0+b1ln(t)Cubic(三次三次)Y=b0+b1t+b2t2+b3t3SY=eb0+b1/tLn(Y)=b0+b
19、1/tExponential(指数指数)Y=b0*eb1*tLn(Y)=ln(b0)+b1tInverse(逆逆)Y=b0+b1/tPower(幂幂)Y=b0(tb1)Ln(Y)=ln(b0)+b1ln(t)Logistic(逻辑逻辑)Y=1/(1/u+b0b1t)Ln(1/Y-1/u)=ln(b0+ln(b1)t)曲线估计数据要求:数据要求:自变量和因变量是数值型变量;自变量和因变量是数值型变量;模型的残差服从正态分布;模型的残差服从正态分布;观测量之间相互独立。观测量之间相互独立。曲线估计曲线估计的思路:曲线估计的思路:1、提供多种可选择的函数模型,用户在不能明、提供多种可选择的函数模型,
20、用户在不能明确究竟那种模型更接近样本数据时,可以同时确究竟那种模型更接近样本数据时,可以同时选择几种模型;选择几种模型;2、SPSS自动完成模型的参数估计,并显示自动完成模型的参数估计,并显示F值、值、对应的伴随概率对应的伴随概率R2等统计量;等统计量;3、用户选择具有最大、用户选择具有最大R2的模型作为自己的回归的模型作为自己的回归模型,并作预测。也可以比较模型,并作预测。也可以比较F值或值或F检验的检验的P值。值。11.2.3 曲线估计(Curve Estimation)分析实例实例实例P335 Data11-01:有关汽车数据,有关汽车数据,看看mpg(每加仑汽油行驶里程每加仑汽油行驶里
21、程)与与weight(车重车重)的关系的关系曲线估计(Curve Estimation)分析实例先做散点图先做散点图(Graphs-Scatter-Simple):weight(X)、mpg(Y),看每加仑汽油行看每加仑汽油行驶里程数驶里程数mpg(Y)随着汽车自重随着汽车自重weight(X)的增加而减少的关系,也发现是曲线关系的增加而减少的关系,也发现是曲线关系曲线估计(Curve Estimation)分析实例建立若干曲线模型(可试着选用所有模型建立若干曲线模型(可试着选用所有模型Models)Analyze-Regression-Curve EstimationDependent:mp
22、gIndependent:weightModels:全选全选(除了最后一个逻辑回归除了最后一个逻辑回归)选选Plot models:输出模型图形输出模型图形曲线估计(Curve Estimation)分析实例比较有用的结果:各种模型的比较有用的结果:各种模型的Adjusted R2,并比较哪个大,结果是指数模型并比较哪个大,结果是指数模型Compound的的Adjusted R2=0.70678最好(拟合情况可见最好(拟合情况可见图形窗口)图形窗口),结果方程为:结果方程为:mpg=60.15*0.999664weight说明:说明:Growth和和Exponential的结果也相同,的结果也
23、相同,也一样。也一样。11.3二项逻辑回归(Binary Logistic)在现实中,经常需要判断一些事情是否将要发生,在现实中,经常需要判断一些事情是否将要发生,候选人是否会当选?为什么一些人易患冠心病?候选人是否会当选?为什么一些人易患冠心病?为什么一些人的生意会获得成功?此问题的特点为什么一些人的生意会获得成功?此问题的特点是因变量只有两个值,不发生是因变量只有两个值,不发生(0)和发生和发生(1)。这。这就要求建立的模型必须因变量的取值范围在就要求建立的模型必须因变量的取值范围在01之间。之间。二项逻辑回归(Binary Logistic)Logistic回归模型回归模型wLogist
24、ic模型:在逻辑回归中,可以直接预模型:在逻辑回归中,可以直接预测观测量相对于某一事件的发生概率。包含测观测量相对于某一事件的发生概率。包含一个自变量的回归模型和多个自变量的回归一个自变量的回归模型和多个自变量的回归模型公式:模型公式:二项逻辑回归(Binary Logistic)其中:其中:z=B0+B1X1+BpXp(P为自变量个为自变量个数)。某一事件不发生的概率为数)。某一事件不发生的概率为Prob(no event)1-Prob(event)。因此最主要的是因此最主要的是求求B0,B1,Bp(常数和系数常数和系数)二项逻辑回归(Binary Logistic)w数据要求:因变量应具有
25、二分特点。自变量数据要求:因变量应具有二分特点。自变量可以是分类变量和定距变量。如果自变量是可以是分类变量和定距变量。如果自变量是分类变量应为二分变量或被重新编码为指示分类变量应为二分变量或被重新编码为指示变量。变量。二项逻辑回归(Binary Logistic)w回归系数:几率和概率的区别。几率回归系数:几率和概率的区别。几率=发生发生的概率的概率/不发生的概率。如从不发生的概率。如从52张桥牌中抽张桥牌中抽出一张出一张A的几率为的几率为(4/52)/(48/52)=1/12,而,而其概率值为其概率值为4/52=1/13w 根据回归系数表,可以写出回归模型公式根据回归系数表,可以写出回归模型
26、公式中的中的z。然后根据回归模型公式然后根据回归模型公式Prob(event)进行预测。进行预测。11.3.3二项逻辑回归(Binary Logistic)实例实例实例P343 Data11-02:乳腺癌患者的数据进乳腺癌患者的数据进行分析,变量为:年龄行分析,变量为:年龄age,患病时间患病时间time,肿瘤肿瘤扩散等级扩散等级pathscat(3种)种),肿瘤大小肿瘤大小pathsize,肿瘤史肿瘤史histgrad(3种)和癌变部位的淋巴结是种)和癌变部位的淋巴结是否含有癌细胞否含有癌细胞ln_yesno,建立一个模型,对癌建立一个模型,对癌变部位的淋巴结是否含有癌细胞变部位的淋巴结是否
27、含有癌细胞ln_yesno的情的情况进行预测。况进行预测。二项逻辑回归(Binary Logistic)实例nAnalyze-Regression-Binary LogisticnDependent:ln_yesnonCovariates:age,time,pathscat,pathsize,histgrad二项逻辑回归(Binary Logistic)实例n比较有用的结果:在比较有用的结果:在Variables in Equation表中表中的各变量的系数(的各变量的系数(B),),可以写出可以写出z=-0.88-0.331pathscat+0.415pathsize 0.023age+0.
28、311histgrad。根据回归模型公式根据回归模型公式Prob(event)=1/(1+e-z),就可以计算一名年龄为就可以计算一名年龄为60岁、岁、pathsize为为1、histgrad为为1、pathscat为为1的患者,其淋巴结中的患者,其淋巴结中发现癌细胞的概率为发现癌细胞的概率为1/(1+e-(-1.845)=0.136(Prob(event)0.5 预测事件将会发生)预测事件将会发生)11.7加权回归(WLS)概念概念 WLS指在回归计算过程中给予不同的观测指在回归计算过程中给予不同的观测量不同的权值,变异性小的观测量赋予的权值量不同的权值,变异性小的观测量赋予的权值大于变异性
29、大的观测量。大于变异性大的观测量。加权回归(WLS)数据要求:数据要求:自变量和因变量是数值型变量;自变量和因变量是数值型变量;模型的残差服从正态分布;模型的残差服从正态分布;观测量之间相互独立;观测量之间相互独立;自变量取不同值时,因变量的方差不同,且不自变量取不同值时,因变量的方差不同,且不同的方差可以根据加权变量预测出来。同的方差可以根据加权变量预测出来。加权回归(WLS)菜单菜单 Analyze-Regression-Weight Estimation实例分析实例分析 P371 Data11-0611.8二段最小二乘法(2SLS)概念概念 2SLS指在回归计算过程中,寻找适当的工指在回
30、归计算过程中,寻找适当的工具变量构造新的变量替代模型中与误差项相关具变量构造新的变量替代模型中与误差项相关的内生解释变量。的内生解释变量。二段最小二乘法(2SLS)替代变量(工具变量)应满足:替代变量(工具变量)应满足:1、对因变量的预测具有与内生变量近似的效果;、对因变量的预测具有与内生变量近似的效果;2、在预测因变量的过程中与误差项不相关。、在预测因变量的过程中与误差项不相关。二段最小二乘法(2SLS)注:注:1、变量可以同时被定义为解释变量和工具变量;、变量可以同时被定义为解释变量和工具变量;2、工具变量的个数大于等于解释变量的个数;、工具变量的个数大于等于解释变量的个数;3、如引入的所
31、有的工具变量与所有的解释变量、如引入的所有的工具变量与所有的解释变量相同,则等价于一般的线性回归。相同,则等价于一般的线性回归。二段最小二乘法(2SLS)菜单菜单Analyze-Regression-2 Stage Least Squares实例分析实例分析 P358 Data09-07补充:回归分析补充:回归分析以下的讲义是吴喜之教授有关回归分析的讲义,很简单,但很实用定量变量的线性回归分析定量变量的线性回归分析 对例1(highschoo.sav)的两个变量的数据进行线性回归,就是要找到一条直线来最好地代表散点图中的那些点。检验问题等检验问题等对于系数b1=0的检验对于拟合的F检验R2(决
32、定系数)及修正的R2.多个自变量的回归多个自变量的回归如何解释拟合直线如何解释拟合直线?什么是逐步回归方法?自变量中有定性变量的回归自变量中有定性变量的回归 例1(highschoo.sav)的数据中,还有一个自变量是定性变量“收入”,以虚拟变量或哑元(dummy variable)的方式出现;这里收入的“低”,“中”,“高”,用1,2,3来代表.所以,如果要用这种哑元进行前面回归就没有道理了.以例1数据为例,可以用下面的模型来描述:自变量中有定性变量的回归自变量中有定性变量的回归 现在只要估计b0,b1,和a1,a2,a3即可。哑元的各个参数a1,a2,a3本身只有相对意义,无法三个都估计,
33、只能够在有约束条件下才能够得到估计。约束条件可以有很多选择,一种默认的条件是把一个参数设为0,比如a3=0,这样和它有相对意义的a1和a2就可以估计出来了。对于例1,对b0,b1,a1,a2,a3的估计分别为28.708,0.688,-11.066,-4.679,0。这时的拟合直线有三条,对三种家庭收入各有一条:SPSS实现实现(hischool.sav)AnalizeGeneral linear modelUnivariate,在Options中选择Parameter Estimates,再在主对话框中把因变量(s1)选入Dependent Variable,把定量自变量(j3)选入Cova
34、riate,把定量因变量(income)选入Factor中。然后再点击Model,在Specify Model中选Custom,再把两个有关的自变量选入右边,再在下面Building Term中选Main effect。Continue-OK,就得到结果了。输出的结果有回归系数和一些检验结果。注意注意 这里进行的线性回归,仅仅是回归的这里进行的线性回归,仅仅是回归的一种,也是历史最悠久的一种。一种,也是历史最悠久的一种。但是,任何模型都是某种近似;但是,任何模型都是某种近似;线性回归当然也不另外。线性回归当然也不另外。它被长期广泛深入地研究主要是因为它被长期广泛深入地研究主要是因为数学上相对简
35、单。数学上相对简单。它已经成为其他回归的一个基础。它已经成为其他回归的一个基础。总应该用批判的眼光看这些模型。总应该用批判的眼光看这些模型。SPSS的的回归分析回归分析自变量和因变量都是定量变量时的线性回归分析:n菜 单:Analize RegressionLinearn把有关的自变量选入Independent,把因变量选入Dependent,然后OK即可。如果自变量有多个(多元回归模型,选Method:Stepwise),只要都选入就行。SPSS的的回归分析回归分析自变量中有定性变量(哑元)和定量变量而因变量 为 定 量 变 量 时 的 线 性 回 归 分 析 (hischool.sav)n菜单:AnalizeGeneral linear modelUnivariate,n在Options中选择Parameter Estimates,n再在主对话框中把因变量(s1)选入Dependent Variable,把定量自变量(j3)选入Covariate,把定性因变量(income)选入Factor中。n点击Model,在Specify Model中选Custom,再把两个有关的自变量选入右边,再在下面Building Term中选Main effect。然后就Continue-OK。