一文详解假设检验、两类错误和p值

我们在生活中会遇到很多带有不确定性的问题,比如什么样的男孩子更容易找到女朋友,拥有什么样的品质更易成功。科学方法告诉我们,面对这些问题,要“大胆假设,小心求证”。而假设检验就是这样的一套方法论。

假设检验的定义

假设检验有很多不同角度的定义,比较偏统计学理论的定义说假设检验是先对总体参数提出一个假设值,然后利用样本信息判断这一假设是否成立。百度百科从假设检验的原理出发,说假设检验用来判断样本与样本、样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法,这句话的含义就是我观察到的样本数据与我的假设之间的差异是否是由随机性造成的。我个人比较喜欢从应用的角度来理解假设检验,所以我对假设检验的理解是:假设检验是对我们提出的假设进行检验的一套理论。可能大家会觉得这样的定义不是废话吗,这不就是字面意思嘛。其实定义只是我们理解一个概念的开始,对一个概念的完全理解,需要构建关于这个概念的一整套框架。而从从这个定义开始,我们就可以比较自然地构建关于假设检验的一个框架。从这个定义开始,我们可以把假设检验拆解成两部分,第一部分是面对一个复杂的不确定性问题,我们如何提出相关的假设;第二部分是,我们如何验证每一个假设。

如何构建假设

假设检验一次一般只能验证一个假设。所以我们首先要把一个问题转化成两个对立的假设。其中一个假设为零假设,习惯用H0表示;另一个假设为备择假设,习惯用H1表示。比如我们想要验证长得高的男孩子更容易找到女朋友,那么我们可以设置假设为:

H0: 身高高的男孩子不会比其他男孩子更容易找到女朋友 H1: 身高高的男孩子会比其他男孩子更容易找到女朋友

这里对设置零假设和备择假设有一些规则:

  1. H0假设通常为,我们所要验证的假设不成立,没有影响的情况,是实验者想要拒绝的假设。
  2. H0和H1是互相独立且互补的,也就是说要门H0成立,要么H1成立,没有其他情况。
  3. H1通常为,我们想要验证的假设,比如上面例子中,我们想要验证长的高的男孩子更容易找到女朋友。
  4. H0通常包含等号:=、≥或≤
  5. H1通常包含:≠、>或<

为什么实验者要把零假设设置为想要拒绝的假设呢?这里涉及到第一类错误和第二类错误的问题,这样有助于我们控制犯第一类错误的概率。关于什么是第一类错误和第二类错误,后文有详细的解释。

如何验证假设

在设立了假设以后,应该如何检验假设呢?首先需要说明的是,验证假设,并不是100%确定哪个假设为真,而只是选择为真的概率大的那个假设。那怎么确定两个假设为真的概率呢?就是用事实说话,我们看在哪种假设下,样本出现的概率大。我们先给出验证检验的一般步骤:

  1. 假设H0为真,确定样本统计量的概率分布
  2. 根据显著性水平,确定临界值
  3. 根据样本,计算实际的样本统计量的值
  4. 比较样本统计量的值和临界值大小,以判断是否接受H0

1.两种类型的错误

在设立了两个假设以后,需要利用样本数据来检验哪种假设为真的概率要大一些。那么我们得出来的结论会存在四种情况:当H0为真时,我们接受了H0;当H0为真时,我们接受了H1;当H0为假时,我们接受了H0;当H0为假时,我们接受了H1。我们举个关于法庭判案的例子,我设置假设为:

H0: 嫌疑人无罪 H1: 嫌疑人有罪

那么判决的结果就会出行以下四种情况:
《一文详解假设检验、两类错误和p值》
我们在做出判决时,很难100%保证判决和事实相一致,在其他假设检验的场景中也是类似的。从以上的表格中,可以看到我们犯的错误只有两个,被称为第一类错误和第二类错误。第一类错误是指,在H0为真的情况下,我们选择了H1。第二类错误是在H0为假的情况下,我们选择了H0。由于像在上一部分所说的,H0一般设置为效果没有影响的情况,而H1是我们希望证明的有影响的情况,所以第一类错误也习惯被说成假阳性,意思是说本来没有效果,但我们认为是有效果的。而第二类错误习惯称为假阴性
在假设检验中,我们很难同时控制犯第一类错误和第二类错误的概率,一般只能控制一个。那控制哪个呢?这就要看我们更不希望犯哪类错误。其实我们更不希望犯第一类错误。第一类错误通俗理解来看,就是这个东西本来就是好的,这件事情本身是没什么作用的,而我们却认为这个东西是坏的,这件事情是有效果的。这样的情况往往是我们更不想看到的,比如上面法庭判决的例子,如果嫌疑人本身无罪而被判为有罪,这就是冤假错案那!
上面我们提到,在假设检验中我们要控制犯第一类错误的概率,这个概率就是显著性水平α。一般在研究中取α=0.05,也就是把犯第一类错误控制在5%以内。

2.验证假设

到这里,我们了解了假设检验的一般步骤,也知道了如何控制犯错误的概率。那么接下来就来看看如何进行验证假设,首先我们获得在H0成立的情况下,统计量的概率分布。依据概率分布的不同,我们这里可以把假设检验分成Z检验和t检验等。z检验是在统计量服从正太分布时的检验,而t检验是在统计量服从t分布时的检验。方便理解,我们举一个关于验证总体均值的假设检验。这里会存在两种检验类型,即单侧检验和双侧检验。什么是单侧检验呢?就是我们对总体均值的假设有一个方向,比如我们要验证总体均值μ是否大于μ0,那么我们就可以设置假设为:

H0:μ≤μ0 H1:μ>μ0

这就是一个单侧检验,当然我们也可以验证总体均值是否小于μ0。那什么是双侧检验呢?就是没有对总体均值有一个具体的方向,比如我们想要验证总体均值是否等于μ0,假设可以设置为:

H0:μ=μ0 H1:μ≠μ0

这里只用了总体均值举了个例子,对于验证总体中其他参数的假设情况是一样的。
在设立假设以后,需要构造统计量,对于总体均值我们构造统计量为样本均值,即《一文详解假设检验、两类错误和p值》
依据中心极限定理,可得在样本容量n很大(大于30)时,样本均值服从正太分布,即:
《一文详解假设检验、两类错误和p值》
其中μ为总体均值,σ平方为总体方差,当然一般会写成服从标准正太分布的形式,如下:《一文详解假设检验、两类错误和p值》
以上是统计量服从正太分布的情况,但当总体方差未知,或者样本容量较小时,上面的统计量就不服从正太分布了,这时我们可以构造一个t统计量,服从t分布。关于t检验可以看看这篇文章。不管时Z检验还是T检验,其实验证假设的方法是一样的,只是Z检验建立在正太 分布上,T检验建立在t分布上。这里,我们用Z检验进行介绍。
获得了统计量的概率分布后,我们计算在H0为真的情况下的Z值,也就是把μ=μ0代入上式。不管是单侧检验,还是双侧检验,都是把临界值代入计算的。下面我用python模拟了一个标准正太分布:
《一文详解假设检验、两类错误和p值》

红色的线代表了显著性水平α=0.025时的临界值,绿色线为用样本计算的Z值。可以看到绿色线比红色线处于更极端的位置,说明在H0成立的条件下,样本出现的概率是很小的,所以我们倾向于拒绝接受H0。当然,在这种情况下,H0也可能是成立的,也就是我们会犯第一类错误,但这个概率有多少呢?就是绿色线右边的区域所占的概率值,这个值是比我们设定的显著性水平要小的,我们可以接受犯这种错误。另外,绿色线也可能在红色线的左边,这时我们就无法拒绝H0了。
上面的展示的是单侧检验,而对于双侧检验,是下面这样的:《一文详解假设检验、两类错误和p值》
我们需要同时检验两边,绿色线在右边红色线的右边,和在左边红色线的左边,我们都拒绝H0;在两条红色线之间,我们才无法拒绝H0。这里的理由和单侧检验是类似的,只不过这个时候要两边都要检验。

3. 利用p值验证假设

上面我们是通过直观的方式来判断是否接受原假设,还有一种是通过数值的方式来进行判断的。这里我们需要借助p值。什么是p值呢?当然关于p值的定义有很多,我说一下我的理解,我觉得p值就是在H0成立的条件下,出现比计算出来的样本统计量更极端值的概率。下面的这张图可以直观的理解p值。和前面的几幅图一样,红色线代表显著性水平下的临界值,绿色线表示在H0为真时,计算出来的样本统计量。p值是比绿色线更极端值的概率,在图上可以表示为大于绿色线区域(也就是图中红色区域的部分)所占的比例。
《一文详解假设检验、两类错误和p值》
弄这个p值有什么用呢?我们可以看看前面是怎么验证假设的,首先我们得要把统计量的概率分布图给画出来,然后确定显著性水平的临界值的位置,接着我们对比样本统计量与临界值位置,来判断是否接受H0。这个过程看起来比较繁琐,而用p值就可以简化这个步骤。当我们得到统计量的概率分布后,按照p值的定义,可以直接算出来p值的大小。接着我们直接对比p值和显著性水平α的大小,就可以判断是否接受H0了。当p值小于α时,我们拒绝H0;当p值大于α时,我们接受H0。简化了很多有木有。其实我们可以看到,α值就是图中比红色线更极端值的概率。

    原文作者:hulongchao
    原文地址: https://blog.csdn.net/weixin_43823338/article/details/108050115
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞