2022/3/2 9:44:14 阅读:352 发布者:chichi77
统计学知识是什么?
统计学是数据分析必须掌握的基础知识,
它是通过搜索、整理、分析、描述数据等手段,
以达到推断所测对象的本质,甚至预测对象未来的一门综合性科学。
然而,大家一想起统计学,脑海里免不了出现那些晦涩难懂的统计学原理和计算公式,还有各种试验数据的统计方法的选择,不免头痛。接下来,我们将对统计学的基本术语、各种统计方法和统计学的入门方法支招,帮你快速入门统计学。
统计学七大基础知识
统计学是如此重要,
那么如何掌握它的基础知识呢?
这里有七大点,是每个专业人士必须要学懂学会的!
1
自由度是什么?怎么确定?
自由度的定义?
在统计学中,自由度指的是计算某一统计量时,取值不受限制的变量个数。
自由度设定的理由?
自由度的设定是出于这样一个理由:
在总体平均数未知时,用样本平均数去计算离差(常用小s)会受到一个限制
要计算标准差(小s)就必须先知道样本平均数,
而样本平均数和n都知道的情况下,数据的总和就是一个常数了。
所以,“最后一个”样本数据就不可以变了,因为它要是变,总和就变了,而这是不允许的。
关于自由度的举例?
通俗点说,一个班上有50个人,我们知道他们语文成绩平均分为80,
现在只需要知道49个人的成绩就能推断出剩下那个人的成绩。
你可以随便报出49个人的成绩,
但是最后一个人的你不能瞎说,因为平均分已经固定下来,自由度少一个。
2
正态分布检验中的自由度
在正态分布检验中,这里的M(三个统计量)为:
N(总数)、平均数和标准差。
因为我们在做正态检验时,
要使用到平均数和标准差以确定该正态分布形态,
此外,要计算出各个区间的理论次数,我们还需要使用到N。
所以在正态分布检验中,自由度为K-3。
3
t检验
t检验用于哪里?
t检验适用于两个变量均数间的差异检验,
多于两个变量间的均数比较要用方差分析。
t检验须满足什么条件?
无论哪种类型的t检验,都必须在满足特定的前提条件下:
正态性和方差齐性,应用才是合理的。
这是因为必须在这样的前提下所计算出的t统计量才服从t分布,
而t检验正是以t分布作为其理论依据的检验方法。
t检验的实际应用?
t检验是目前医学研究中使用频率最高,
医学论文中最常见到的处理定量资料的假设检验方法。
4
统计学意义(P值)
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。
专业上,P值为结果可信程度的一个递减指标,
P值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。
P值是将观察结果认为有效即具有总体代表性的犯错概率。
如P=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联
我们重复类似实验,会发现约20个实验中有一个实验,
我们所研究的变量关联将等于或强于我们的实验结果。
(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)
在许多研究领域,0.05的P值通常被认为是可接受错误的边界水平。
5
如何判定结果具有真实性
实践中,最后的决定通常依赖于数据集比较和分析过程中
结果是先验性还是仅仅为均数之间的两两比较,
依赖于总体数据集里结论一致的支持性证据的数量,
依赖于以往该研究领域的惯例。
通常,许多的科学领域中产生P值的结果≤0.05被认为是统计学意义的边界线,
但是这显著性水平还包含了相当高的犯错可能性。
结果 0.05≥P>0.01被认为是具有统计学意义,
而0.01≥P≥0.001被认为具有高度统计学意义。
但要注意这种分类仅仅是研究基础上非正规的判断常规。
6
所有检验统计都是正态分布?
并不完全如此,但大多数检验都直接或间接与之有关,
可以从正态分布中推导出来,
如t检验、F检验或卡方检验。
这些检验一般都要求:
所分析变量在总体中呈正态分布,即满足所谓的正态假设。
许多观察变量的确是呈正态分布的,
这也是正态分布是现实世界的基本特征的原因。
随着样本量的增加,样本分布形状趋于正态,
即使所研究的变量分布并不呈正态。
7
假设检验的内涵及步骤
在假设检验中,由于随机性我们可能在决策上犯两类错误:
一类是假设正确,但我们拒绝了假设,这类错误是“弃真”错误;
一类是假设不正确,但我们没拒绝假设,这类错误是“取伪”错误。
一般来说,在样本确定的情况下,任何决策无法同时避免两类错误的发生,即在避免第一类错误发生机率的同时,会增大第二类错误发生的机率;
或者在避免第二类错误发生机率的同时,会增大第一类错误发生的机率。人们往往根据需要选择对那类错误进行控制,以减少发生这类错误的机率。大多数情况下,人们会控制第一类错误发生的概率。
发生第一类错误的概率被称作显著性水平,一般用α表示,在进行假设检验时,是通过事先给定显著性水平α的值而来控制第一类错误发生的概率。
在这个前提下,假设检验按下列步骤进行:
1. 确定假设;
2. 进行抽样,得到一定的数据;
3. 根据假设条件下,构造检验统计量,并根据抽样得到的数据计算检验统计量在这次抽样中的具体值;
4. 依据所构造的检验统计量的抽样分布,和给定的显著性水平,确定拒绝域及其临界值;
5. 比较这次抽样中检验统计量的值与临界值的大小,如果检验统计量的值在拒绝域内,则拒绝假设;
到这一步,假设检验已经基本完成,
但是由于检验是利用事先给定显著性水平的方法来控制犯错概率的,
所以对于两个数据比较相近的假设检验。
我们无法知道那一个假设更容易犯错,
即我们通过这种方法只能知道根据这次抽样而犯第一类错误的最大概率(即给定的显著性水平),而无法知道具体在多大概率水平上犯错。
计算 P值有效的解决了这个问题,P值其实就是按照抽样分布计算的一个概率值,这个值是根据检验统计量计算出来的。通过直接比较P值与给定的显著性水平α的大小就可以知道是否拒绝假设,显然这就代替了比较检验统计量的值与临界值的大小的方法。
而且通过这种方法,我们还可以知道在p值小于α的情况下犯第一类错误的实际概率是多少,p=0.03<α=0.05,那么拒绝假设,这一决策可能犯错的概率是0.03。需要指出的是,如果P>α,那么假设不被拒绝,在这种情况下,第一类错误并不会发生。
来源:精益六西格玛大本营