统计学深度指南

文档概述

本指南系统梳理统计学从经典频率学派到现代贝叶斯学派的完整理论体系,涵盖点估计、区间估计、假设检验、参数估计方法以及EM算法等核心内容,为数据科学与机器学习提供方法论基础。

关键词

序号关键词英文核心公式
1频率学派Frequentist基于重复抽样的推断
2贝叶斯学派Bayesian
3点估计Point Estimation
4区间估计Interval Estimation
5假设检验Hypothesis Testing vs
6p值p-value
7最大似然估计MLE
8EM算法EM Algorithm
9置信区间Confidence Interval
10似然比检验Likelihood Ratio Test
11费舍尔信息Fisher Information
12充分统计量Sufficient Statistic

一、统计学派别之争:频率学派 vs 贝叶斯学派

1.1 哲学基础的分歧

统计学历史上最深刻的争论发生在频率学派(Frequentist)与贝叶斯学派(Bayesian)之间,这一争论的本质是对”概率”本质的不同理解。

频率学派将概率解释为长期频率。在这个框架下,未知参数 是固定的常数,“概率”只能应用于可重复随机实验的长期频率。置信区间的解释是:若重复抽样100次,约95次包含真实参数值。代表性人物包括Fisher、Neyman和Pearson。

贝叶斯学派将概率解释为主观信念度。参数 被视为随机变量,可以用概率分布描述。在观测数据前,参数服从先验分布 ;观测数据后,根据贝叶斯定理更新为后验分布

Jeffreys (1939) 的经典表述

“Every increase in knowledge may be supposed to decrease the entropy, that is to say, the disorder of our probability distribution.”

1.2 两种方法的形式化对比

频率学派方法

  • 目标:估计未知参数 的点值或构造置信区间
  • 工具:样本均值 、样本方差 、枢轴量
  • 评估标准:无偏性 、有效性(方差最小)、一致性

贝叶斯方法

  • 目标:获得参数的后验分布
  • 工具:贝叶斯定理、先验分布、后验预测分布
  • 评估标准:可信区间(直接给出参数落在某区间的概率)
方面频率学派贝叶斯学派
参数性质固定未知常数随机变量
概率解释长期频率主观信念
先验信息通常忽略显式编码
置信区间覆盖概率直接概率解释
计算复杂度通常较低通常较高

1.3 实用主义视角

现代统计实践中,两种方法各有优劣:

  • 频率学派优势:计算简单,不需要先验选择,客观性较强
  • 贝叶斯优势:自然融合先验信息,不确定性量化完整,可处理复杂层次模型

经验贝叶斯(Empirical Bayes)在两者之间架起桥梁:用数据来估计先验超参数,既保留了贝叶斯框架的灵活性,又减少了主观性。


二、点估计与区间估计

2.1 点估计的基本概念

点估计是用一个具体数值 来估计未知参数 的方法。

评价标准

  1. 无偏性

    • 样本均值 是总体均值 的无偏估计
    • 样本方差 的无偏估计(注意除以 而非
  2. 有效性:在所有无偏估计中,方差最小者为有效估计

    • Cramér-Rao下界给出了无偏估计方差的下限
  3. 一致性:当样本量 时,

    • 一致性保证了估计随数据增加而趋近真实值
  4. 均方误差(MSE):

    • MSE统一衡量了估计的偏差和方差

2.2 矩估计法

矩估计法(Method of Moments, MoM)通过样本矩匹配总体矩来估计参数。

设总体有 个未知参数 ,令前 阶样本矩等于对应总体矩:

解此方程组即得参数估计。矩估计法简单直观,但通常不如MLE高效。

2.3 区间估计

区间估计给出参数的一个区间范围,同时声明对该区间可靠程度的信心。

置信区间的频率学派定义:

其中 是置信区间, 是置信水平(如95%)。

置信区间的常见误解

“95%置信区间”并不意味着”参数有95%的概率落在这个区间内”。正确的解释是:如果重复抽样100次构造置信区间,约95个区间会包含真实参数值。参数的取值是固定的,区间才是随机的。

枢轴量法构造置信区间:

  1. 选择一个统计量 ,其分布不依赖
  2. 中的
  3. 解不等式得到 的区间

三、假设检验与p值

3.1 假设检验框架

假设检验是决定是否拒绝原假设 的统计方法。

  • 原假设 :通常表示”无效应”或”现状”
  • 备择假设 :研究者希望证明的命题
  • 检验统计量 :汇总数据的函数
  • 拒绝域:使 被拒绝的 值区域

两类错误

错误类型定义记作
第一类错误 为真但被拒绝$\alpha = P(\text{reject } H_0
第二类错误 为假但未拒绝$\beta = P(\text{fail to reject } H_0

势函数,描述检验在不同参数值下的拒绝概率。

3.2 p值的精确定义

p值是在原假设成立的前提下,观察到比实际数据更极端结果的概率:

p值的解读:

  • 小p值(如 ):在 成立时,观测数据是”小概率事件”,倾向于拒绝
  • 大p值:数据与 相符,无法拒绝

p值的常见误用

  1. p值不等于” 为真的概率”(那是后验概率)
  2. p值不能衡量效应大小或实际重要性
  3. p值具有”可复制性危机”:即使实验设计完美, 的结果中也约有32%是虚假的(假设检验的先验概率为50%)

3.3 似然比检验

似然比检验(Likelihood Ratio Test, LRT)是构造检验的通用方法:

Wilks定理表明,在一定正则条件下,当 成立且样本量足够大时:

其中 是约束参数的个数。


四、最大似然估计(MLE)

4.1 MLE的定义与性质

最大似然估计是统计学中最重要的估计方法之一。设观测数据 来自密度 ,似然函数定义为:

对数似然为便于计算:

MLE定义为:

MLE的优良性质

  1. 一致性
  2. 渐近正态性
    • 其中 费舍尔信息
  3. 渐近有效性:在正则条件下,MLE达到Cramér-Rao下界
  4. 不变性:若 的MLE,则 的MLE

4.2 MLE的计算方法

解析求解:对数似然求导令其为零

数值优化:对于复杂模型,使用:

  • 牛顿-拉夫森法(Newton-Raphson)
  • Fisher得分法(Fisher Scoring)
  • EM算法(见下节)
  • 梯度下降法

正态分布参数的MLE

,则:

  • (样本均值)
  • (注意除以 而非 ,是有偏的)

虽然 有偏,但它仍是 的MLE。修正偏差后得到无偏估计


五、EM算法详解

5.1 隐变量的引入

EM算法(Expectation-Maximization)专门用于处理隐变量(latent variable)模型。当数据中存在不可观测的隐变量 时,直接最大化似然函数往往困难重重。

观测数据的似然

直接计算这个积分通常不可行。

5.2 EM的两步迭代

E步(Expectation):计算隐变量后验分布下的期望对数似然

M步(Maximization):最大化 函数得到新参数

EM算法的关键洞察:直接优化 困难,但优化完整数据似然 加上隐变量的期望往往容易

5.3 EM的收敛性

EM算法单调收敛到局部最优解(不是全局最优)。每次迭代保证:

EM的几何直观

可以将EM视为在似然曲面上交替进行”上升”(E步找到更好的下界)和”最大化”(M步移动到下界的峰值)。这就是为什么EM属于坐标上升方法。

5.4 EM的变体

变体改进
GEM(广义EM)M步只需增加 函数值,不必全局最大化
ECM(期望条件最大化)在约束条件下交替最大化各参数
ECME(ECM扩展)使用更快的似然值更新
ECMM(期望条件最大化替代)使用不同的充分统计量更新
PX-EM(参数扩展EM)引入扩展参数空间加速收敛

硬币实验的EM算法

假设有两枚硬币A和B,正面概率不同。观测数据是混合的抛掷结果(不知道每次用哪枚硬币)。EM算法通过迭代:E步估计每次抛掷使用各硬币的概率,M步用这些概率更新硬币的正面概率。


六、贝叶斯统计基础

6.1 先验分布的选择

无信息先验(Non-informative Prior):

  • 拉普拉斯先验:均匀分布
  • Jeffreys先验:(费舍尔信息的平方根)
  • Reference Prior:在特定条件下使得后验分布最大程度反映数据信息

共轭先验:后验分布与先验分布属于同一分布族,便于计算(详见概率论深度指南)。

层次先验:先验本身带有超参数,,超参数 又有自己的先验 ,形成层次结构。

6.2 后验推断

点估计

  • 后验均值
  • 后验中位数 满足
  • 后验众数(MAP估计):

后验可信区间(Credible Interval):

贝叶斯可信区间的解释比频率学派置信区间更直观:参数落在该区间的后验概率为

6.3 贝叶斯因子

贝叶斯因子(Bayes Factor)用于比较两个假设:

贝叶斯因子的解读:

证据强度
1-3微弱
3-10中等
10-30
30-100很强
> 100决定性

BIC与贝叶斯因子的联系

当先验为适当先验时,,即贝叶斯因子近似于两个模型的BIC差。这为模型选择提供了实用方法。


七、非参数统计与稳健统计

7.1 非参数估计方法

非参数统计不假设数据来自特定的参数化分布,提供了更灵活的推断工具。

核密度估计(Kernel Density Estimation, KDE):

给定样本 ,密度函数 的核估计为:

其中 是核函数(满足 ), 是带宽参数。

常用核函数:

  • 高斯核:
  • Epanechnikov核:
  • 均匀核:

带宽选择

  • 拇指法(Rule of Thumb):
  • 交叉验证:选择使积分均方误差最小的
  • Silverman法

偏差-方差权衡

带宽 控制平滑程度:

  • 小:偏差小,方差大(过拟合噪声)
  • 大:偏差大,方差小(欠拟合) 存在最优带宽使均方误差最小。

7.2 非参数假设检验

Wilcoxon符号秩检验(非参数配对检验):

原假设:总体中位数为

步骤:

  1. 计算差值
  2. 取绝对值 并排序
  3. 给正差值分配秩次(忽略零差值)
  4. 检验统计量 是正差值秩次之和

Mann-Whitney U检验(Wilcoxon秩和检验,非参数两组独立样本检验):

检验两组样本是否来自同一分布。

统计量:

其中 是第一组样本的秩和。

Kruskal-Wallis检验(多组比较):

非参数的单因素方差分析替代:

其中 是第 组的秩和, 是总样本量。

7.3 Bootstrap方法

Bootstrap通过重采样来估计统计量的分布。

经验Bootstrap

  1. 从原始样本 有放回地抽取 个样本
  2. 计算目标统计量
  3. 重复 次(如
  4. 的分布近似真实分布

Bootstrap置信区间

百分位Bootstrap区间

枢轴量Bootstrap区间(更准确):

其中 是 bootstrap 分布的 分位数。

Bootstrap的局限性

  • 不适用于小样本(
  • 当统计量的分布不稳健时效果差
  • 需要计算资源支持大量重采样

7.4 稳健统计

稳健统计研究数据轻微偏离模型假设时的推断方法。

位置参数的稳健估计

  • 中位数 范数意义下的最优估计,崩溃点 50%
  • M估计:最小化 是损失函数
  • Huber估计:混合 损失

尺度的稳健估计

  • MAD(Median Absolute Deviation)

崩溃点高,但效率低于样本方差。

影响函数与崩溃点

  • 影响函数
  • 崩溃点:使估计量偏离真实值的最小污染比例

八、贝叶斯统计深入

8.1 层次贝叶斯模型

层次模型通过多层先验结构来建模参数的参数(超参数)。

三层模型结构

数据层:给定参数 ,观测 先验层:给定超参数 的先验 超先验层: 的先验

八个学校示例(Rubin, 1981)

八个学校SAT培训效果的估计。每个学校 有观测效果 ,而

  • :第 个学校的真实效果(层次参数)
  • :总体平均效果(超参数)
  • :学校间差异程度(超参数) 这个模型自然地平衡了学校特定估计与总体估计。

8.2 共轭先验的深入讨论

共轭先验使得后验分布与先验同族,便于计算。

Beta分布

Bernoulli-Beta共轭

Dirichlet-Multinomial共轭

Normal-Normal共轭(方差已知):

其中:

8.3 马尔可夫链蒙特卡洛方法

MCMC方法通过构造马尔可夫链来生成后验样本。

Metropolis-Hastings算法

  1. 选择提议分布
  2. 计算接受概率:
  3. 以概率 接受 ,否则保留

对称时(如正态提议),简化为标准Metropolis算法。

Gibbs采样

是 Metropolis-Hastings 的特例,提议分布为条件分布:

收敛诊断

  • Geweke检验:比较链前后部分的均值
  • Gelman-Rubin统计量:,比较多链方差
  • 有效样本量(ESS)

8.4 变分推断高级专题

变分推断将贝叶斯推断转化为优化问题。

平均场变分族

最优的 满足:

变分EM(Variational EM)

当模型有潜在变量 和参数 时,交替优化:

  • E步:用变分分布近似
  • M步:最大化

黑盒变分推断(BBVI)

使用随机梯度下降优化ELBO:

使用重参数化技巧来降低梯度方差。


九、统计学习理论基础

9.1 PAC学习框架

PAC(Probably Approximately Correct)学习是分类学习的理论框架。

PAC可学习:若存在学习算法 和多项式 使得对任意 和分布 ,当样本量 时:

其中 是真实风险。

样本复杂度

对于有限假设空间。

9.2 VC维度

VC维度(Vapnik-Chervonenkis Dimension)衡量假设空间的表达能力。

定义 的VC维是能被 打散的最大有限点集的大小。

打散:若对点集的任意二值标记, 都存在假设完美分类。

** Sauer引理**:若VCdim() = ,则:

VC维与样本复杂度

深度神经网络的VC维

对于具有 个参数的网络,VC维上界为 。这说明网络容量(参数数量)控制表达能力。

9.3 Rademacher复杂度

Rademacher复杂度提供了更精细的学习边界。

定义

其中 是随机符号。

泛化边界

Rademacher复杂度随样本量增长更快地收敛,因此边界比VC维更紧。

经验Rademacher复杂度

用样本代替期望。

9.4 偏差-方差分解

偏差-方差分解是理解模型复杂度的核心工具。

对于回归问题 ,预测误差分解为:

  • 偏差:模型假设与真实函数的差距(欠拟合)
  • 方差:模型对训练数据的敏感度(过拟合)
  • ** irreducible error**:数据固有噪声

多项式回归

  • 一次多项式:偏差高,方差低(欠拟合)
  • 高次多项式:偏差低,方差高(过拟合)
  • 最优复杂度在两者之间取得平衡

正则化与偏差-方差权衡

岭回归:

时:

  • 增加偏差(收缩效应)
  • 减少方差(正则化效应)

十、因果推断基础

10.1 因果推断的基本框架

因果推断研究从观测数据推断因果关系的方法论。

潜在结果框架(Rubin因果模型):

每个个体 有两个潜在结果:

  • :接受处理的结果
  • :未接受处理的结果

个体处理效应(ITE):

问题是:每个个体只能观测到一个潜在结果!

平均处理效应(ATE):

10.2 随机实验与混淆变量

随机化实验是因果推断的金标准:

  • 随机分配处理 vs 对照
  • 处理分配与潜在结果独立

混淆变量(Confounder):同时影响处理分配和结果变量。

控制混淆的方法:

  • 分层:按混淆变量分层后比较
  • 匹配:匹配处理组和对照组的混淆变量
  • 协变量调整:回归中控制混淆变量
  • 工具变量:利用外生变异性

10.3 倾向得分方法

倾向得分(Propensity Score):

倾向得分匹配

其中 是与 倾向得分最接近的对照个体。

逆概率加权(IPW):

10.4 因果图模型

有向无环图(DAG)表示因果结构。

d-分离(有向分离):判断两个变量在给定第三组变量时是否条件独立。

后门路径:连接处理和结果的非因果路径。

后门准则:若存在变量集 阻断所有从 的后门路径,则:

这允许从观测数据估计 操作的效果。

Pearl的因果阶梯

  1. 关联(Association): - 看到 改变 的概率
  2. 干预(Intervention): - 强制设置 的效果
  3. 反事实(Counterfactual): - 若 不同会发生什么

十一、实验设计与分析

11.1 随机化完全区组设计

完全随机化设计(CRD):

  • 处理随机分配到实验单元
  • 适用于均匀实验环境

随机区组设计(RCBD):

  • 将实验单元分成区组(块)
  • 区组内条件尽可能均匀
  • 处理在每个区组内随机分配

拉丁方设计

  • 两个区组因素(如行和列)
  • 每个处理在每行每列恰好出现一次
  • 提高效率

11.2 因子实验

因子实验同时研究多个因素的效应。

主效应:单个因素的效应(忽略其他因素)。

交互效应:一个因素的水平效应依赖于另一个因素的水平。

2^k析因设计

个因素,每个因素 2 个水平(高/低):

  • 设计:4 个处理组合
  • 设计:8 个处理组合
  • 适合筛选实验

部分析因设计

当因素较多时,使用部分因子设计减少实验次数。

  • 设计: 个因素, 个因素被折叠

11.3 方差分析深入

单因素方差分析

其中 是处理效应,

平方和分解

  • SST:总平方和
  • SSB:组间平方和(处理效应)
  • SSW:组内平方和(误差)

F检验

11.4 响应曲面方法

响应曲面方法(RSM)优化过程参数。

Box-Behnken设计

  • 三水平设计
  • 不包含角点组合
  • 适合约束区域

中心复合设计(CCD):

  • 因子水平:
  • 包含轴向点
  • 可拟合二次模型

梯度下降

沿负梯度方向迭代寻找最优。


十二、时间序列分析

12.1 ARMA模型

自回归移动平均模型(ARMA)是时间序列分析的基础。

AR(p)模型

其中 (白噪声)。

MA(q)模型

ARMA(p,q)模型

平稳性条件:AR特征多项式根在单位圆外。

可逆性条件:MA特征多项式根在单位圆外。

12.2 季节性模型

SARIMA模型(季节性ARIMA):

其中 是季节周期(如 12 表示月度数据的年度季节性)。

傅里叶项方法

12.3 状态空间模型与卡尔曼滤波

状态空间模型

观测方程: 状态方程:

卡尔曼滤波

递归估计最优状态:

12.4 谱分析与频率域方法

谱密度函数

周期图(谱密度估计):

平滑周期图:使用谱窗平滑周期图得到一致估计。

交叉谱分析两个时间序列的频率关系。


十三、多元统计方法

13.1 判别分析

线性判别分析(LDA):

是类别, 是特征。

贝叶斯判别规则:

,则:

决策边界是 的线性函数。

二次判别分析(QDA):

若各类协方差矩阵不同 ,则决策边界是二次的。

13.2 典型相关分析

典型相关分析(CCA)研究两组变量之间的相关性。

,寻找线性组合:

最大化

典型相关系数

典型变量是原始变量的最优压缩,同时保留两组间的相关性。

13.3 多维标度分析

度量MDS

给定距离矩阵 ,寻找嵌入点 使得:

Stress函数

非度量MDS(Kruskal-Shephard):

仅保留距离的单调性:

其中 是单调函数。

13.4 对应分析

对应分析(Correspondence Analysis):

分析行×列表的关联性。

将列联表归一化后进行奇异值分解:

可视化行和列点在同一低维空间中。


十四、生存分析

14.1 生存函数与风险函数

生存函数

非参数估计(Kaplan-Meier):

其中 是时刻 前的风险集大小, 是死亡数。

风险函数

14.2 Cox比例风险模型

Cox模型

其中 是基准风险函数, 是回归系数。

部分似然(不依赖基准风险):

PH假设检验 应平行。

14.3 加速失效模型

加速失效模型(AFT):

相当于对数线性模型。

常见的误差分布:

  • 指数分布 指数回归
  • Weibull分布 Weibull回归
  • 对数正态分布 对数正态回归

14.4 竞争风险

竞争风险:多个事件类型,任何一个发生阻止其他事件发生。

累积发生函数(CIF):

Fine-Gray模型

建模子分布风险(特定原因风险)。


十五、统计决策理论

15.1 统计决策框架

统计决策理论将统计推断形式化为决策问题。

决策问题的三个要素

  1. 状态空间 :可能的参数值
  2. 行动空间 :可采取的行动
  3. 损失函数 :采取行动 而真实参数为 时的损失

风险函数

贝叶斯风险

15.2 决策准则

极小化极大准则(Minimax):

在所有策略中,选择使最大风险最小的策略。

贝叶斯准则

对于给定的先验分布 ,选择使贝叶斯风险最小的策略。

** admissible 决策函数**: 若不存在另一个决策函数 使得 对所有 ,且至少一处严格不等式,则 是 admissible 的。

15.3 最优决策规则

完全类与本质完全类

  • 完全类:每个决策函数都被某个 Bayes 决策函数支配
  • 本质完全类:存在完全类

指数族分布的容许性

对于指数族分布,在平方损失下,均值估计是 admissible 的。

Stein现象

在多元正态均值估计中,当维度 时,James-Stein估计比MLE更优。

15.4 贝叶斯决策与后验风险

后验风险

贝叶斯决策规则

共轭先验与贝叶斯决策

对于平方损失,Bayes估计是后验均值:

对于0-1损失,Bayes估计是后验众数(MAP)。


十六、模型选择理论

16.1 过拟合与欠拟合

训练误差

泛化误差

过拟合:训练误差小,泛化误差大 欠拟合:训练误差和泛化误差都大

16.2 偏差-方差分解(决策理论视角)

对于平方损失

  • 方差:模型对训练数据的敏感度
  • 偏差:模型假设与真实函数的差距
  • ** irreducible error**:噪声引起的误差

16.3 结构风险最小化

经验风险最小化(ERM)

VC维正则化界

其中

结构风险最小化(SRM)

将假设空间划分为嵌套结构:

在每个子空间中选择使经验风险最小的模型,然后选择最优子空间。

16.4 信息准则

AIC(Akaike Information Criterion):

其中 是参数个数。

BIC(Bayesian Information Criterion):

选择比较

  • AIC:在样本量大时渐近选择真实模型
  • BIC:在大样本下选择正确维度模型
  • 两者在模型嵌套时选择不同

十七、高维统计推断

17.1 高维问题的挑战

“维度灾难”: 当维度 接近或超过样本量 时,传统统计方法失效。

稀疏性假设: 在高维问题中,假设只有少数变量真正相关。

符号

  • :变量个数
  • :样本量
  • :非零系数的个数(稀疏度)

17.2 稀疏估计方法

Lasso(Least Absolute Shrinkage and Selection Operator):

岭回归

Elastic Net

17.3 Oracle性质

Oracle性质

在一定条件下(如 irrepresentable 条件),Lasso 可以:

  1. 正确识别非零系数的子集(变量选择一致性)
  2. 以与知道真实稀疏结构的估计器相同的速率估计非零系数

Irrepresentable条件

这是 Lasso 变量选择一致性的必要条件。

17.4 Cross-Validation与调参

K折交叉验证

将数据划分为 个大小相等的折:

留一交叉验证(LOOCV):

稳定选择: 多次交叉验证,选择被一致选择的变量。


十八、函数数据分析

18.1 函数数据的表示

函数数据是观测本身是函数形式的数据:

基函数展开

常用基函数:

  • Fourier基(周期性数据)
  • B样条基(非周期性数据)
  • 小波基(多尺度分析)

18.2 函数主成分分析

函数主成分是函数空间的PCA扩展。

主成分分数

重构

18.3 函数线性模型

函数响应模型

函数预测模型

18.4 动态函数数据分析

函数时间序列

函数AR模型


十九、统计计算方法

19.1 梯度下降与随机梯度下降

梯度下降

随机梯度下降(SGD)

使用单个样本或小批量估计梯度。

收敛性条件

  • 学习率衰减:
  • 步长调度:指数衰减、余弦退火

19.2 坐标下降法

坐标下降: 固定其他坐标,依次优化每个坐标:

Lasso的坐标下降

对Lasso问题,坐标下降有闭式解:

其中 是软阈值算子。

19.3 牛顿法与拟牛顿法

牛顿法

其中 是Hessian矩阵。

计算挑战:Hessian矩阵的存储和求逆是

拟牛顿法: 用近似Hessian 替代真实Hessian:

其中

19.4 置信域方法

置信域方法: 在每一步,在信任域内寻找最优步长:

Dogleg方法: 结合最速下降和高斯-牛顿方向。


二十、统计学的哲学与方法论

20.1 统计推断的逻辑基础

归纳推理的问题

统计推断是从样本到总体的归纳推理。这种推理天然是不确定的。

Fisher的显著性检验

  • 提出无效假设
  • 计算检验统计量
  • 评估

Neyman-Pearson的假设检验

  • 明确原假设和备择假设
  • 控制第一类和第二类错误
  • 构造最优检验

20.2 统计模型的选择

奥卡姆剃刀: 在解释能力相同的情况下,选择更简单的模型。

似然原理: 所有关于 的证据都包含在似然函数中。

条件原理: 推断应该基于设计的实验条件。

20.3 统计学中的争议

Fisher vs Neyman-Pearson

  • Fisher强调显著性检验
  • Neyman-Pearson强调假设检验的控制

频率主义 vs 贝叶斯主义

  • 概率的解释
  • 先验分布的选择
  • 渐近行为的意义

20.4 现代统计学的趋势

计算统计

  • MCMC方法
  • Bootstrap方法
  • 机器学习方法

大数据统计学

  • 高维推断
  • 在线学习
  • 分布式计算

可重复研究

  • 开放数据
  • 预注册
  • 同行评审

参考文献

  1. Lehmann, E. L., & Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer.
  2. Casella, G., & Berger, R. L. (2002). Statistical Inference (2nd ed.). Duxbury Press.
  3. Gelman, A., Carlin, J. B., Stern, H. S., Dunson, D. B., Vehtari, A., & Rubin, D. B. (2013). Bayesian Data Analysis (3rd ed.). CRC Press.
  4. McLachlan, G. J., & Krishnan, T. (2008). The EM Algorithm and Extensions (2nd ed.). Wiley.
  5. Wasserman, L. (2010). All of Statistics: A Concise Course in Statistical Inference. Springer.
  6. Vapnik, V. N. (1998). Statistical Learning Theory. Wiley.
  7. Pearl, J. (2009). Causality: Models, Reasoning, and Inference (2nd ed.). Cambridge University Press.
  8. Box, G. E. P., Jenkins, G. M., & Reinsel, G. C. (2015). Time Series Analysis: Forecasting and Control (5th ed.). Wiley.
  9. Friedman, J., Hastie, T., & Tibshirani, R. (2001). The Elements of Statistical Learning (2nd ed.). Springer.
  10. Hernán, M. A., & Robins, J. M. (2020). Causal Inference: What If. CRC Press.
  11. Bickel, P. J., & Doksum, K. A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics (2nd ed.). CRC Press.
  12. Lehmann, E. L., & Romano, J. P. (2005). Testing Statistical Hypotheses (3rd ed.). Springer.
  13. van der Vaart, A. W. (1998). Asymptotic Statistics. Cambridge University Press.
  14. Hastie, T., Tibshirani, R., & Wainwright, M. (2015). Statistical Learning with Sparsity. CRC Press.
  15. Efron, B., & Tibshirani, R. J. (1994). An Introduction to the Bootstrap. CRC Press.

相关文档