Presentation is loading. Please wait.

Presentation is loading. Please wait.

统 计 学 (第三版) 2008 作者 贾俊平 统计学.

Similar presentations


Presentation on theme: "统 计 学 (第三版) 2008 作者 贾俊平 统计学."— Presentation transcript:

1 统 计 学 (第三版) 2008 作者 贾俊平 统计学

2 上好的模型选择可遵循一个称为奥克姆剃刀(Occam’s Razor)的基本原理:最好的科学模型往往最简单,且能解释所观察到的事实。
统计名言 上好的模型选择可遵循一个称为奥克姆剃刀(Occam’s Razor)的基本原理:最好的科学模型往往最简单,且能解释所观察到的事实。 ——William Navidi 2008年8月

3 9.1 多元线性回归模型 9.2 拟合优度和显著性检验 9.3 多重共线性及其处理 9.4 利用回归方程进行预测 9.5 虚拟自变量的回归
第 9 章 多元线性回归 9.1 多元线性回归模型 9.2 拟合优度和显著性检验 9.3 多重共线性及其处理 9.4 利用回归方程进行预测 9.5 虚拟自变量的回归

4 学习目标 多元线性回归模型、回归方程与估计的回归方程 回归方程的拟合优度与显著性检验 多重共线性问题及其处理 利用回归方程进行预测
虚拟自变量的回归 用Excel和SPSS进行回归分析 2008年8月

5 身高受那些因素影响? 决定身高的因素是什么?父母遗传、生活环境、体育锻炼,还是以上各因素的共同作用
2004年12月,中国人民大学国民经济管理系02级的两位学生,对人大在校生进行了问卷调查。问卷采取随机发放、当面提问当场收回 调查的样本量为98人,男性55人,女性43人。调查内容包括被调查者的身高(单位:cm)、性别、其父母身高、是否经常参加体育锻炼、家庭所在地是在南方还是在北方等等。部分数据如教材中的表所示(1代表男性,0代表女性) 父亲身高、母亲身高、性别是不是影响子女身高的主要因素呢?如果是,子女身高与这些因素之间能否建立一个线性关系方程,并根据这一方程对身高做出预测? 这就是本章将要讨论的多元线性回归问题 2008年8月

6 第 9 章 多元线性回归 9.1 多元线性回归模型 回归模型与回归方程 参数的最小二乘估计

7 9.1 多元线性回归模型 回归模型与回归方程

8 多元回归模型 (multiple linear regression model)
一个因变量与两个及两个以上自变量的回归 描述因变量 y 如何依赖于自变量 x1 , x2 ,…, xk 和误差项  的方程,称为多元回归模型 涉及 k 个自变量的多元线性回归模型可表示为 b0 ,b1,b2 ,,bk是参数  是被称为误差项的随机变量 y 是x1,,x2 , ,xk 的线性函数加上误差项  包含在y里面但不能被k个自变量的线性关系所解释的变异性 2008年8月

9 多元回归模型 (基本假定) 正态性。误差项ε是一个服从正态分布的随机变量,且期望值为0,即ε~N(0,2)
方差齐性。对于自变量x1,x2,…,xk的所有值, 的方差 2都相同 独立性。对于自变量x1,x2,…,xk的一组特定值,它所对应的与任意一组其他值所对应的不相关 2008年8月

10 多元线性回归方程 (multiple linear regression equation)
描述因变量 y 的平均值或期望值如何依赖于自变量 x1, x2 ,…,xk的方程 多元线性回归方程的形式为 E( y ) = 0+ 1 x1 + 2 x2 +…+ k xk b1,b2,,bk称为偏回归系数 bi 表示假定其他变量不变,当 xi 每变动一个单位时,y 的平均变动值 2008年8月

11 估计的多元线性回归的方程 (estimated multiple linear regression equation)
用样本统计量 估计回归方程中的 参数 时得到的方程 由最小二乘法求得 一般形式为 估计值 是 y 的估计值 2008年8月

12 9.1 多元线性回归模型 参数的最小二乘估计

13 参数的最小二乘估计 使因变量的观察值与估计值之间的离差平方和达到最小来求得 。即 求解各回归参数的标准方程如下 2008年8月

14 参数的最小二乘法 (例题分析) 【例】一家大型商业银行在多个地区设有分行,为弄清楚不良贷款形成的原因,抽取了该银行所属的25家分行2002年的有关业务数据。试建立不良贷款y与贷款余额x1、累计应收贷款x2、贷款项目个数x3和固定资产投资额x4的线性回归方程,并解释各回归系数的含义 用Excel进行回归 2008年8月

15 参数的最小二乘估计 (例题分析) 偏回归系数 F检验 t 检验 2008年8月

16 第 9 章 多元线性回归 9.2 拟合优度和显著性检验 回归方程的拟合优度 显著性检验

17 9.2 拟合优度和显著性检验 回归方程的拟合优度

18 多重判定系数 (multiple coefficient of determination)
回归平方和占总平方和的比例 计算公式为 因变量取值的变差中,能被估计的多元回归方程所解释的比例 2008年8月

19 修正多重判定系数 (adjusted multiple coefficient of determination)
用样本量n和自变量的个数k去修正R2得到 计算公式为 避免增加自变量而高估 R2 意义与 R2类似 数值小于R2 用Excel进行回归 2008年8月

20 多重相关系数 (multiple correlation coefficient)
反映因变量y与k个自变量之间的相关程度 实际上R度量的是因变量的观测值 与由多元回归方程得到的预测值 之间的关系强度,即多重相关系数R等于因变量的观测值 与估计值 之间的简单相关系数即 (一元相关系数r也是如此,即 。读者自己去验证) 2008年8月

21 估计标准误差 Se 对误差项的标准差 的一个估计值 衡量多元回归方程的拟合优度 计算公式为 用Excel进行回归 2008年8月

22 9.2 拟合优度和显著性检验 显著性检验

23 线性关系检验 检验因变量与所有自变量之间的线性关系是否显著 也被称为总体的显著性检验
检验方法是将回归均方(MSR)同残差均方(MSE)加以比较,应用 F 检验来分析二者之间的差别是否显著 如果是显著的,因变量与自变量之间存在线性关系 如果不显著,因变量与自变量之间不存在线性关系 2008年8月

24 线性关系检验 用Excel进行回归 提出假设 2. 计算检验统计量F 确定显著性水平和分子自由度k、分母自由度n-k-1找出临界值F 
H0:12k=0 线性关系不显著 H1:1,2, k至少有一个不等于0 2. 计算检验统计量F 确定显著性水平和分子自由度k、分母自由度n-k-1找出临界值F  4. 作出决策:若F>F ,拒绝H0 用Excel进行回归 2008年8月

25 回归系数的检验 线性关系检验通过后,对各个回归系数有选择地进行一次或多次检验 究竟要对哪几个回归系数进行检验,通常需要在建立模型之前作出决定
对回归系数检验的个数进行限制,以避免犯过多的第Ⅰ类错误(弃真错误) 对每一个自变量都要单独进行检验 应用 t 检验统计量 2008年8月

26 回归系数的检验 (步骤) 提出假设 计算检验的统计量 t 确定显著性水平,并进行决策
H0: bi = 0 (自变量 xi 与 因变量 y 没有线性关系) H1: bi  0 (自变量 xi 与 因变量 y有线性关系) 计算检验的统计量 t 确定显著性水平,并进行决策  t>t,拒绝H0; t<t,不拒绝H0 用Excel 进行回归 2008年8月

27 回归系数的推断 (置信区间) 回归系数在(1-)%置信水平下的置信区间为 回归系数的抽样标准差 用Excel进行回归 2008年8月

28 第 9 章 多元线性回归 9.3 多重共线性及其处理 多重共线性及其识别 变量选择与逐步回归

29 9.3 多重共线性及其处理 多重共线性及其识别

30 多重共线性 (multicollinearity)
回归模型中两个或两个以上的自变量彼此相关 多重共线性带来的问题有 可能会使回归的结果造成混乱,甚至会把分析引入歧途 可能对参数估计值的正负号产生影响,特别是各回归系数的正负号有可能同预期的正负号相反 用Excel进行回归 2008年8月

31 多重共线性的识别 用Excel进行回归 检测多重共线性的最简单的一种办法是计算模型中各对自变量之间的相关系数,并对各相关系数进行显著性检验
若有一个或多个相关系数显著,就表示模型中所用的自变量之间相关,存在着多重共线性 如果出现下列情况,暗示存在多重共线性 模型中各对自变量之间显著相关 当模型的线性关系检验(F检验)显著时,几乎所有回归系数的t检验却不显著 回归系数的正负号与预期的相反 用Excel进行回归 2008年8月

32 多重共线性的处理 将一个或多个相关的自变量从模型中剔除,使保留的自变量尽可能不相关 如果要在模型中保留所有的自变量,则应
避免根据 t 统计量对单个参数进行检验 对因变量值的推断(估计或预测)的限定在自变量样本值的范围内 用Excel进行回归 2008年8月

33 提 示 在建立多元线性回归模型时,不要试图引入更多的自变量,除非确实有必要
提 示 在建立多元线性回归模型时,不要试图引入更多的自变量,除非确实有必要 在社会科学的研究中,由于所使用的大多数数据都是非试验性质的,因此,在某些情况下,得到的结果往往并不令人满意,但这不一定是选择的模型不合适,而是数据的质量不好,或者是由于引入的自变量不合适 2008年8月

34 奥克姆剃刀 (Occam’s Razor) 模型选择可遵循奥克姆剃刀的基本原理 对于线性模型来说,奥克姆剃刀可表示成简约原则
最好的科学模型往往最简单,且能解释所观察到的实事 对于线性模型来说,奥克姆剃刀可表示成简约原则 一个模型应包括拟合数据所必需的最少变量 如果一个模型只包含数据拟合所必需的变量,这个模型就称为简约模型(parsimonious model) 实际中的许多多元回归模型都是对简约模型的扩展 2008年8月

35 9.3 多重共线性及其处理 变量选择与逐步回归

36 变量选择过程 在建立回归模型时,对自变量进行筛选 选择自变量的原则是对统计量进行显著性检验
将一个或一个以上的自变量引入到回归模型中时,是否使得残差平方和(SSE)有显著地减少。如果增加一个自变量使SSE的减少是显著的,则说明有必要将这个自变量引入回归模型,否则,就没有必要将这个自变量引入回归模型 确定引入自变量是否使SSE有显著减少的方法,就是使用F统计量的值作为一个标准,以此来确定是在模型中增加一个自变量,还是从模型中剔除一个自变量 变量选择的方法主要有:向前选择、向后剔除、逐步回归、最优子集等 2008年8月

37 向前选择 (forward selection)
从模型中没有自变量开始 对k个自变量分别拟合对因变量的一元线性回归模型,共有k个,然后找出F统计量的值最高的模型及其自变量(P值最小的),并将其首先引入模型 分别拟合引入模型外的k-1个自变量的线性回归模型 如此反复进行,直至模型外的自变量均无统计显著性为止 2008年8月

38 向后剔除 (backward elimination)
先对因变量拟合包括所有k个自变量的回归模型。然后考察p(p<k)个去掉一个自变量的模型(这些模型中在每一个都有的k-1个自变量),使模型的SSE值减小最少的自变量被挑选出来并从模型中剔除 考察p-1个再去掉一个自变量的模型(这些模型中每一个都有k-2个的自变量),使模型的SSE值减小最少的自变量被挑选出来并从模型中剔除 如此反复进行,一直将自变量从模型中剔除,直至剔除一个自变量不会使SSE显著减小为止 2008年8月

39 逐步回归 (stepwise regression)
将向前选择和向后剔除两种方法结合起来筛选自变量 在增加了一个自变量后,它会对模型中所有的变量进行考察,看看有没有可能剔除某个自变量。如果在增加了一个自变量后,前面增加的某个自变量对模型的贡献变得不显著,这个变量就会被剔除 按照方法不停地增加变量并考虑剔除以前增加的变量的可能性,直至增加变量已经不能导致SSE显著减少 在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中 2008年8月

40 参数的最小二乘法 (逐步回归) 【例】根据例9.1的数据,用逐步回归方法建立不良贷款y与贷款余额x1、累计应收贷款x2、贷款项目个数x3和固定资产投资额x4的线性回归方程,并求出不良贷款的置信区间和预测区间 2008年8月

41 用SPSS进行逐步回归 (stepwise regression)
第1步:选择【Analyze】下拉菜单,并选择 【Regression - linear】选项进入主对话框 第2步:在主对话框中将因变量选入【Dependent】,将 所有自变量选入【Independent(s)】,并在 【Method】下选择【Stepwise】 第3步:点击【Options】,并在【Stepping Method Criteria】下选中【Use Probability of F】,并在 【Entry】框中输入增加变量所要求的显著性水平 (隐含值为0.05,一般不用改变);在 【Removal】输入剔除变量所要求的显著性水平 (隐含值为0.10,一般不用改变)。点击 【Continue】回到主对话框 2008年8月

42 用SPSS进行逐步回归 (stepwise regression)
第4步:(需要预测时)点击【Save】: 在【Predicted Values】下选中 【Unstandardized】(输出点预测值) 在【Prediction interval】下选中【Mean】和 【Individual】(输出置信区间 和预测区间) 在【Confidence Interval】中选择所要求的置 信水平(隐含值为95%,一般不用改变) (需要残差分析时)在【Residuals】下选中所 需的残差,点击【Continue】回到主对话 框。点击【OK】  用SPSS进行回归 2008年8月

43 逐步回归 (例题分析—SPSS输出结果) 变量的进入和移出标准 2008年8月

44 逐步回归 (例题分析—SPSS输出结果) 两个模型的主要统计量 2008年8月

45 逐步回归 (例题分析—SPSS输出结果) 两个模型的方差分析表 2008年8月

46 逐步回归 (例题分析—SPSS输出结果) 两个模型的参数估计和检验 2008年8月

47 第 9 章 多元线性回归 9.4 利用回归方程进行预测

48 置信区间和预测区间 (例题分析) 2008年8月

49 置信区间和预测区间 (例题分析) 不良贷款的置信面和预测面 二元回归面 置信面 预测面 2008年8月

50 第 9 章 多元线性回归 9.5 虚拟自变量的回归

51 9.5 虚拟自变量的回归 在模型中引进虚拟变量

52 虚拟自变量 (dummy variable)
也称哑变量。用数字代码表示的定性自变量 虚拟自变量可有不同的水平 只有两个水平的虚拟自变量 比如,性别(男,女) 有两个以上水平的虚拟自变量 贷款企业的类型(家电,医药,其他) 虚拟变量的取值为0,1 2008年8月

53 在回归中引进虚拟变量 回归模型中使用虚拟自变量时,称为虚拟自变量的回归 当虚拟自变量只有两个水平时,可在回归中引入一个虚拟变量
比如,性别(男,女) 一般而言,如果定性自变量有k个水平,需要在回归中模型中引进k-1个虚拟变量 2008年8月

54 在回归中引进虚拟变量 (例题分析) 【例】为研究考试成绩与性别之间的关系,从某大学商学院随机抽取男女学生各8名,得到他们的市场营销学课程的考试成绩如右表 2008年8月

55 9.5 虚拟自变量的回归 含有一个虚拟自变量的回归

56 在回归中引进虚拟变量 (例题分析) 【例】建立考试分数与性别之间的线性回归方程,并解释回归系数的含义 用Excel进行回归 2008年8月

57 虚拟自变量的回归 (例题分析) 引进虚拟变量时,回归方程表示为E(y) =0+ 1x 注意:当指定虚拟变量0,1时
虚拟自变量的回归 (例题分析) 引进虚拟变量时,回归方程表示为E(y) =0+ 1x 男( x=0):E(y) =0—男学生考试成绩的期望值 女(x=1):E(y) =0+ 1—女学生考试成绩的期望值 注意:当指定虚拟变量0,1时 0总是代表与虚拟变量值0所对应的那个分类变量水平的平均值 1总是代表与虚拟变量值1所对应的那个分类变量水平的平均响应与虚拟变量值0所对应的那个分类变量水平的平均值的差值,即 平均值的差值 =(0+ 1) - 0= 1 2008年8月

58 虚拟自变量的回归 (例题分析) 考试成绩与性别的回归 男学生考试分数的平均值 女学生与男学生平均考试分数的差值 2008年8月

59 虚拟自变量的回归 (考试成绩与性别的散点图)
男 女 2008年8月

60 虚拟自变量的回归 (例题分析) 用Excel进行回归
【例】为研究工资水平与工作年限和性别之间的关系,在某行业中随机抽取10名职工,所得数据如右表 用Excel进行回归 2008年8月

61 虚拟自变量的回归 (例题分析) 引进虚拟变量时,回归方程写为 E(y) =0+ 1x1+ 2x2
虚拟自变量的回归 (例题分析) 引进虚拟变量时,回归方程写为 E(y) =0+ 1x1+ 2x2 女( x2=0):E(y|女性) =0 +1x1 男(x2=1):E(y|男性) =(0 + 2 ) +1x1 0的含义表示:女性职工的期望月工资收入 (0+ 2)的含义表示:男性职工的期望月工资收入 1含义表示:工作年限每增加1年,男性或女性工资的平均增加值 2含义表示:男性职工的期望月工资收入与女性职工的期望月工资收入之间的差值 (0+ 2) - 0= 2 2008年8月

62 本章小结 多元线性回归模型、回归方程与估计的回归方程 回归方程的拟合优度与显著性检验 多重共线性问题及其处理 利用回归方程进行预测
虚拟自变量的回归 用Excel和SPSS进行回归分析 2008年8月

63 结 束 THANKS


Download ppt "统 计 学 (第三版) 2008 作者 贾俊平 统计学."

Similar presentations


Ads by Google