线性回归参数的极大似然估计和最小二乘估计

极大似然估计

对于线性回归模型:

随机误差$\epsilon$可以看成是由许多观察不到的、可加的微小误差叠加而成的[1],则根据中心极限定理,随机误差$\epsilon$服从正态分布,其分布为:$\epsilon \sim N(\mu,\sigma^2)$,为了方便后续计算可以将其去均值,令$\epsilon:=\epsilon-\mu$,则此时的分布为:$\epsilon \sim N(0,\sigma^2)$,分布律为:

若将其中的$\epsilon$用$\epsilon=y-\boldsymbol{w}^T\boldsymbol{x}-b$等价替换可得:

上式显然可以看做$y \sim N(\boldsymbol{w}^T\boldsymbol{x}+b,\sigma^2)$的分布律,接下来便可以用最(极)大似然估计法来估计$\boldsymbol{w}$和b的值。似然函数为:

两边同时取对数得对数似然函数:

其中$m$,$\sigma$均为常数,所以最大化$\ln L(\boldsymbol{w},b)$等价于最小化$\sum_{i=1}^{m}(y_i-\boldsymbol{w}^T\boldsymbol{x_i}-b)^2$,也即:

其中$\boldsymbol{w}’$和$b’$为$\boldsymbol{w}$和$b$的解.

最小二乘估计

最小二乘法是基于均方误差最小化来对模型进行参数估计的,用公式表示为:

显然与最(极)大似然估计的推导结果一致。

参考文献:

[1] 盛骤.《概率论与数理统计(第四版)》