好的,我们来详细推导最佳线性无偏估计量(BLUE),并确保所有公式都能正确显示。这个推导通常被称为高斯-马尔可夫定理(Gauss-Markov Theorem)。
高斯-马尔可夫定理指出,在线性回归模型的一系列经典假设下,普通最小二乘法(OLS)估计量是所有线性无偏估计量中方差最小的估计量。也就是说,OLS 估计量是 BLUE。
我们从标准的线性回归模型开始: $y = X\beta + \epsilon$
其中:
为了证明 OLS 是 BLUE,我们需要以下五个高斯-马尔可夫假设:
线性于参数 (Linear in Parameters): 模型 $y = X\beta + \epsilon$ 是线性的。
随机抽样 (Random Sampling): 数据 $(y_i, X_i)$ 是从总体中随机抽取的。
不存在完全共线性 (No Perfect Collinearity): 矩阵 $X$ 的秩为 $k$(即列满秩)。这意味着 $(X'X)$ 矩阵是可逆的。
零条件均值 (Zero Conditional Mean): 给定任何自变量 $X$ 的值,误差项的期望为零。 $$ E(\epsilon | X) = 0 $$ 这直接意味着 $E(\epsilon) = 0$ 且 $Cov(X, \epsilon) = 0$。
同方差与无自相关 (Homoscedasticity and No Autocorrelation): 误差项具有恒定的方差(同方差)且彼此之间不相关(无自相关)。
这两个条件可以优雅地用矩阵形式表示为误差项的协方差矩阵: $$ Var(\epsilon | X) = E(\epsilon\epsilon' | X) = \sigma^2 I_n $$ 其中 $I_n$ 是 $n \times n$ 的单位矩阵。
我们将按照 "BLUE" 的顺序来分解推导:首先定义“线性”和“无偏”的估计量类别,然后在这个类别中找到“最佳”(即方差最小)的那一个。
一个估计量 $\tilde{\beta}$ 如果是 $y$ 的线性函数,那么它就可以被称为线性估计量。我们可以将其写为: $$ \tilde{\beta} = C y $$ 其中,$C$ 是一个 $k \times n$ 的矩阵,它由非随机的、仅与 $X$ 有关的权重构成。我们的目标是找到最优的 $C$ 矩阵。