统计学深度指南

文档概述

本指南系统梳理统计学从经典频率学派到现代贝叶斯学派的完整理论体系,涵盖点估计、区间估计、假设检验、参数估计方法以及EM算法等核心内容,为数据科学与机器学习提供方法论基础。

关键词

序号关键词英文核心公式
1频率学派Frequentist基于重复抽样的推断
2贝叶斯学派Bayesian
3点估计Point Estimation
4区间估计Interval Estimation
5假设检验Hypothesis Testing vs
6p值p-value
7最大似然估计MLE
8EM算法EM Algorithm
9置信区间Confidence Interval
10似然比检验Likelihood Ratio Test
11费舍尔信息Fisher Information
12充分统计量Sufficient Statistic

一、统计学派别之争:频率学派 vs 贝叶斯学派

1.1 哲学基础的分歧

统计学历史上最深刻的争论发生在频率学派(Frequentist)与贝叶斯学派(Bayesian)之间,这一争论的本质是对”概率”本质的不同理解。

频率学派将概率解释为长期频率。在这个框架下,未知参数 是固定的常数,“概率”只能应用于可重复随机实验的长期频率。置信区间的解释是:若重复抽样100次,约95次包含真实参数值。代表性人物包括Fisher、Neyman和Pearson。

贝叶斯学派将概率解释为主观信念度。参数 被视为随机变量,可以用概率分布描述。在观测数据前,参数服从先验分布 ;观测数据后,根据贝叶斯定理更新为后验分布

Jeffreys (1939) 的经典表述

“Every increase in knowledge may be supposed to decrease the entropy, that is to say, the disorder of our probability distribution.”

1.2 两种方法的形式化对比

频率学派方法

  • 目标:估计未知参数 的点值或构造置信区间
  • 工具:样本均值 、样本方差 、枢轴量
  • 评估标准:无偏性 、有效性(方差最小)、一致性

贝叶斯方法

  • 目标:获得参数的后验分布
  • 工具:贝叶斯定理、先验分布、后验预测分布
  • 评估标准:可信区间(直接给出参数落在某区间的概率)
方面频率学派贝叶斯学派
参数性质固定未知常数随机变量
概率解释长期频率主观信念
先验信息通常忽略显式编码
置信区间覆盖概率直接概率解释
计算复杂度通常较低通常较高

1.3 实用主义视角

现代统计实践中,两种方法各有优劣:

  • 频率学派优势:计算简单,不需要先验选择,客观性较强
  • 贝叶斯优势:自然融合先验信息,不确定性量化完整,可处理复杂层次模型

经验贝叶斯(Empirical Bayes)在两者之间架起桥梁:用数据来估计先验超参数,既保留了贝叶斯框架的灵活性,又减少了主观性。


二、点估计与区间估计

2.1 点估计的基本概念

点估计是用一个具体数值 来估计未知参数 的方法。

评价标准

  1. 无偏性

    • 样本均值 是总体均值 的无偏估计
    • 样本方差 的无偏估计(注意除以 而非
  2. 有效性:在所有无偏估计中,方差最小者为有效估计

    • Cramér-Rao下界给出了无偏估计方差的下限
  3. 一致性:当样本量 时,

    • 一致性保证了估计随数据增加而趋近真实值
  4. 均方误差(MSE):

    • MSE统一衡量了估计的偏差和方差

2.2 矩估计法

矩估计法(Method of Moments, MoM)通过样本矩匹配总体矩来估计参数。

设总体有 个未知参数 ,令前 阶样本矩等于对应总体矩:

解此方程组即得参数估计。矩估计法简单直观,但通常不如MLE高效。

2.3 区间估计

区间估计给出参数的一个区间范围,同时声明对该区间可靠程度的信心。

置信区间的频率学派定义:

其中 是置信区间, 是置信水平(如95%)。

置信区间的常见误解

“95%置信区间”并不意味着”参数有95%的概率落在这个区间内”。正确的解释是:如果重复抽样100次构造置信区间,约95个区间会包含真实参数值。参数的取值是固定的,区间才是随机的。

枢轴量法构造置信区间:

  1. 选择一个统计量 ,其分布不依赖
  2. 中的
  3. 解不等式得到 的区间

三、假设检验与p值

3.1 假设检验框架

假设检验是决定是否拒绝原假设 的统计方法。

  • 原假设 :通常表示”无效应”或”现状”
  • 备择假设 :研究者希望证明的命题
  • 检验统计量 :汇总数据的函数
  • 拒绝域:使 被拒绝的 值区域

两类错误

错误类型定义记作
第一类错误 为真但被拒绝$\alpha = P(\text{reject } H_0
第二类错误 为假但未拒绝$\beta = P(\text{fail to reject } H_0

势函数,描述检验在不同参数值下的拒绝概率。

3.2 p值的精确定义

p值是在原假设成立的前提下,观察到比实际数据更极端结果的概率:

p值的解读:

  • 小p值(如 ):在 成立时,观测数据是”小概率事件”,倾向于拒绝
  • 大p值:数据与 相符,无法拒绝

p值的常见误用

  1. p值不等于” 为真的概率”(那是后验概率)
  2. p值不能衡量效应大小或实际重要性
  3. p值具有”可复制性危机”:即使实验设计完美, 的结果中也约有32%是虚假的(假设检验的先验概率为50%)

3.3 似然比检验

似然比检验(Likelihood Ratio Test, LRT)是构造检验的通用方法:

Wilks定理表明,在一定正则条件下,当 成立且样本量足够大时:

其中 是约束参数的个数。


四、最大似然估计(MLE)

4.1 MLE的定义与性质

最大似然估计是统计学中最重要的估计方法之一。设观测数据 来自密度 ,似然函数定义为:

对数似然为便于计算:

MLE定义为:

MLE的优良性质

  1. 一致性
  2. 渐近正态性
    • 其中 费舍尔信息
  3. 渐近有效性:在正则条件下,MLE达到Cramér-Rao下界
  4. 不变性:若 的MLE,则 的MLE

4.2 MLE的计算方法

解析求解:对数似然求导令其为零

数值优化:对于复杂模型,使用:

  • 牛顿-拉夫森法(Newton-Raphson)
  • Fisher得分法(Fisher Scoring)
  • EM算法(见下节)
  • 梯度下降法

正态分布参数的MLE

,则:

  • (样本均值)
  • (注意除以 而非 ,是有偏的)

虽然 有偏,但它仍是 的MLE。修正偏差后得到无偏估计


五、EM算法详解

5.1 隐变量的引入

EM算法(Expectation-Maximization)专门用于处理隐变量(latent variable)模型。当数据中存在不可观测的隐变量 时,直接最大化似然函数往往困难重重。

观测数据的似然

直接计算这个积分通常不可行。

5.2 EM的两步迭代

E步(Expectation):计算隐变量后验分布下的期望对数似然

M步(Maximization):最大化 函数得到新参数

EM算法的关键洞察:直接优化 困难,但优化完整数据似然 加上隐变量的期望往往容易

5.3 EM的收敛性

EM算法单调收敛到局部最优解(不是全局最优)。每次迭代保证:

EM的几何直观

可以将EM视为在似然曲面上交替进行”上升”(E步找到更好的下界)和”最大化”(M步移动到下界的峰值)。这就是为什么EM属于坐标上升方法。

5.4 EM的变体

变体改进
GEM(广义EM)M步只需增加 函数值,不必全局最大化
ECM(期望条件最大化)在约束条件下交替最大化各参数
ECME(ECM扩展)使用更快的似然值更新
ECMM(期望条件最大化替代)使用不同的充分统计量更新
PX-EM(参数扩展EM)引入扩展参数空间加速收敛

硬币实验的EM算法

假设有两枚硬币A和B,正面概率不同。观测数据是混合的抛掷结果(不知道每次用哪枚硬币)。EM算法通过迭代:E步估计每次抛掷使用各硬币的概率,M步用这些概率更新硬币的正面概率。


六、贝叶斯统计基础

6.1 先验分布的选择

无信息先验(Non-informative Prior):

  • 拉普拉斯先验:均匀分布
  • Jeffreys先验:(费舍尔信息的平方根)
  • Reference Prior:在特定条件下使得后验分布最大程度反映数据信息

共轭先验:后验分布与先验分布属于同一分布族,便于计算(详见概率论深度指南)。

层次先验:先验本身带有超参数,,超参数 又有自己的先验 ,形成层次结构。

6.2 后验推断

点估计

  • 后验均值
  • 后验中位数 满足
  • 后验众数(MAP估计):

后验可信区间(Credible Interval):

贝叶斯可信区间的解释比频率学派置信区间更直观:参数落在该区间的后验概率为

6.3 贝叶斯因子

贝叶斯因子(Bayes Factor)用于比较两个假设:

贝叶斯因子的解读:

证据强度
1-3微弱
3-10中等
10-30
30-100很强
> 100决定性

BIC与贝叶斯因子的联系

当先验为适当先验时,,即贝叶斯因子近似于两个模型的BIC差。这为模型选择提供了实用方法。


参考文献

  1. Lehmann, E. L., & Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer.
  2. Casella, G., & Berger, R. L. (2002). Statistical Inference (2nd ed.). Duxbury Press.
  3. Gelman, A., Carlin, J. B., Stern, H. S., Dunson, D. B., Vehtari, A., & Rubin, D. B. (2013). Bayesian Data Analysis (3rd ed.). CRC Press.
  4. McLachlan, G. J., & Krishnan, T. (2008). The EM Algorithm and Extensions (2nd ed.). Wiley.
  5. Wasserman, L. (2010). All of Statistics: A Concise Course in Statistical Inference. Springer.

相关文档