【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?

1. 回归方程的假定是什么?
大前提:回归分析模型是正确设立的 , 具有可解释的经济意义(即模型是通过研究经济理论、选择变量及函数、收集整理统计数据而建立的) 。
(1)y 与 x 线性关系
(2)重复抽样中,x 是非随机的(固定的,因为“原因明确”),但 y 是随机的 。
(3)对随机误差项 ξi 的假定:零均值、同方差、不相关(即不自相关)
Eξi=0;Cov(ξi , ξi)=σ^2;Cov(ξi,ξj)=0(i≠j)
(4)随机误差项满足正态分布, ξi ~ N(0, σ^2)
(5)xi 与ξi 间不相关(即 xi 是外生性变量) , Cov(xi,ξi)=0
(6)对于多元还需要:不存在完全的多重共线性
1.1 其中,高斯-马尔可夫条件是什么?
该条件即上述的假定(3) , 源于高斯-马尔可夫定理,首先说这个定理 。

【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?

文章插图
【高斯-马尔可夫定理】在给定经典线性回归的假定下 , 回归系数的最佳线性无偏估计量就是最小二乘估计(OLS)量 。称此时的OLS 量满足BLUE(Best最佳线性无偏估计)性质,最佳指方差最?。垂兰屏康挠行裕?。
这个定理有什么用?它给我们提供了一个特定条件下寻找BLUE估计量的方法,也就是说如果一个线性回归方程满足某些假定,此时的最小二乘估计量就是最佳线性无偏估计量,不可能找到一个更优的线性无偏估计量,因为这已经是方差最小的情况了 。所以我们喜欢研究那些满足该定理中的假定的问题 。
这个定理中的内容是什么(红色标注内容)?
假设(线性方程)
【【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?】 。(i = 1……n?