理解回归中整体显着性 f 检验的简单指南
本教程介绍如何识别回归表输出中的 F 统计量以及如何解释该统计量及其相应的 p 值。
了解总体显着性 F 检验
回归中总体显着性的 F 检验用于确定线性回归模型是否比没有预测变量的模型更适合数据集。
整体显着性F检验基于以下两个假设:
零假设 ( H0 ):没有预测变量的模型(也称为仅截距模型)适合数据以及回归模型。
备择假设 ( HA ):您的回归模型比仅截距模型更适合数据。
当您将回归模型拟合到数据集时,您将收到一个回归表作为输出,该表将告诉您 F 统计量以及该 F 统计量相应的 p 值。
如果 p 值小于您选择的显着性水平(常见选择为 0.01、0.05 和 0.10 ),则您有足够的证据得出结论,您的回归模型仅与原始模型一样拟合数据。模型。
示例:回归中的 F 检验
假设我们有以下数据集,显示 12 名不同学生的学习总时数、参加的预科考试总数以及期末考试成绩:
为了分析学习时间和准备考试与学生获得的期末考试成绩之间的关系,我们使用学习时间和准备考试作为预测变量,并将最终考试成绩作为响应变量进行多元线性回归。
我们收到以下结果:
根据这些结果,我们将重点关注 ANOVA 表中给出的 F 统计量以及该 F 统计量的 p 值,该值在表中标记为F 显着性。我们选择0.05作为显着性水平。
F 统计量: 5.090515
P 值: 0.0332
技术说明: F 统计量的计算方式为 MS 回归除以 MS 残差。在这种情况下,MS 回归 / MS 残差 = 273.2665 / 53.68151 = 5.090515 。
由于 p 值低于显着性水平,我们可以得出结论,我们的回归模型比仅截距模型更好地拟合数据。
在这个特定问题的背景下,这意味着在模型中使用我们的学习时间和预备考试预测变量可以让我们更好地拟合数据,而不是我们将它们排除在外并简单地使用截距模型。
解释总体显着性 F 检验的注意事项
一般来说,如果所有预测变量都不具有统计显着性,则整体 F 检验也不会具有统计显着性。
然而,在某些情况下情况可能并非如此,因为总体显着性的 F 检验测试所有预测变量是否共同显着,而每个预测变量显着性的 T 检验只是测试每个预测变量是否显着。个别显着。
因此,F 检验确定所有预测变量是否共同显着。
每个预测变量可能都不显着,但 F 检验表明所有预测变量组合起来都显着。
技术说明:一般来说,模型中的预测变量越多,F 统计量和相应的 p 值具有统计显着性的概率就越高。
您可能会在回归输出中看到的另一个指标是R 平方,它衡量预测变量和响应变量之间线性关系的强度。
尽管 R 平方可以让您了解预测变量与响应变量强相关的程度,但它并没有为这种关系提供正式的统计检验。
这就是 F 检验有用的原因,因为它是正式的统计检验。此外,如果总体 F 检验显着,您可以得出结论:R 平方不为零,并且预测变量与响应变量之间的相关性具有统计显着性。
其他资源
以下教程解释了如何解释回归模型中的其他常见值: