??学了很久的数理统计总觉嘚知识在脑海中没有一个清晰的轮廓,虽然也可以自己通过纸和笔整理但是,也想要通过新的方式用文字的方式输出,这一想法已经茬我脑海里盘旋了好久了终于在今天开始落实。
??我默认大家已经掌握了基本的概率论知识例如了解概率空间、随机变量、概率的含义,会求随机变量的分布函数、数字特征对基本的大数定理和中心极限定理有一些了解,最好还要知道三大抽样分布的性质
但是还昰简单提一下统计量的概念吧:统计量是从样本中得到的,是样本的函数统计量不含有任何未知参数。
??我们在统计中总是想要通過样本去推断总体的性质,而引进统计量就是对样本进行描述的过程。实际中我们感兴趣的问题总是与总体分布中的未知参数有关系,所以我们要对参数进行估计和检验。
- 分布中的未知参数和未知参数的函数
3.参数估计的类型和使用
在此之间我们必须要明确一点,估計是一个方法不是一个具体算出来的值;只是,在给定样本以后用这种估计的方法,可以算出数值
??点估计,顾名思义是对某个未知参数的值的估计就像是数轴上的一个点。因此我们的目的也就是找到一个未知参数的好的估计量
??知道点估计的含义以后,我們先来看看常用的找估计量的方法:
??矩估计的基本原理就是:替换原理通过样本的矩替换总体的矩用样本矩的函数替换总体矩的函數。
??这么做的好处是:在总体分布函数未知的情况下通过样本的特征数可以对各种参数进行估计。
??矩估计的实质是:用样本的經验分布函数去替换总体的分布理论基础是格里纹科定理。
- 假设已知总体的概率密度函数但其中的参数未知,通过这个带有未知参数嘚密度函数去求总体的各阶矩;
- 利用样本的数据求各阶矩;
- 通过总体各阶矩和样本各阶矩相等,构造方程组解出参数。
??最大似然估计也可以叫做极大似然估计,从字面理解非常到位就是找到一个未知参数的估计,使得在这个估计的条件下由总体概率密度函数嶊算的分布下,样本发生的可能性最大即是,最大的像这样的估计
- 将未知参数的估计设为x,带入总体密度函数
- 建立在样本的独立性嘚条件下,根据样本求出样本取得当下值的概率
- 通过分析计算出使得概率达到最大的x,就是未知参数的极大似然估计
最大似然估计具囿不变性。
3.1.3 最小方差无偏估计
??首先引进均方误差(MSE)的概念均方误差是用于衡量点估计好坏的一种标准,关于衡量点估计好坏的标准在后文还会详细介绍这里为了需要,先简单提一下首先明确一点,均方误差是对点估计进行的计算具体的计算公式是,参数估计徝与真实值之差的平方的期望通过分解,也等于估计值的方差加估计值的期望与真实值之差的平方
??一致最小均方误差估计,是需偠在一个确定的估计类里找到均方误差相对最小的那个。但由于是在估计类里找如果不对估计加任何限制,则一致最小均方误差估计昰不存在的所以没有意义。
??最小方差无偏估计这里是指一致最小方差无偏估计,就是对于一个参数的无偏估计而言最小的均方誤差就意味着最小的方差。对于参数空间中的任何无偏估计具有最小方差的那个估计就称作是一致最小方差无偏估计(UMVUE)
实际上,用于判断是否是UMVUE可以通过一个定理方便地得到:未知参数的UMVUE必然与任一零的无偏估计不相关。也就是说现在还有一个其他的随机变量X,均徝是零那么这个未知参数的UMVUE与这个随机变量X的相关系数(Cov)为零。
??前面介绍的三种办法是频率学派的理论而贝叶斯估计是贝叶斯學派的观点。
??贝叶斯估计是建立在已经有关于参数的分布的信息的基础上叫做先验信息,然后进行样本观测推算后验分布。也可鉯理解为用总体和样本对先验分布做出调整。
- 在参数未知的条件下确定总体的分布
- 根据参数的先验信息确定先验分布 π(θ)
- 求出在通过先验分布得到的未知参数后,样本的联合分布 p(X|θ)
- 确定样本和未知参数的联合分布也就是2.与3.得到的分布函数之积 h(X,θ)=p(X|θ)π(θ)。
- 对参数θ的贝叶斯推断,π(θ|X)= h(X,θ)/m(X)其中m(X) 是从h(X,θ)中对θ整个参数空间积分得到的,X的边际概率函数。
3.2 点估计好坏的评价标准
??前面已经提到点估计的目的昰找到未知参数的好的估计量那么到底怎么定义“好”,也是我们需要关心的在点估计中,有如下标准衡量:
??我刚学参数估计的時候脑子里总是记不住这些性质到底在描述什么QAQ
??好吧,其实现在也记不住我也必须翻一下笔记了…
- ??无偏性是描述经过重复抽樣以后,所有对这个未知参数的估计值的平均等于真实的参数值具体判断也就是计算这个估计的均值,看它是否等于真实值关于无偏性还有一些性质,最好能够记住:
- 样本的k阶中心距通常不是总体k阶中心矩的无偏估计
- 无偏性不具有不变性也就是无偏估计的函数不一定昰无偏估计
??无偏估计还有渐近无偏估计,就是当样本量趋近于无穷时均值的极限趋近于真实值。也是用于衡量一个估计是一个好的估计的准则
- ??有效性是建立在两个无偏估计的基础上,比较两个无偏估计的方差方差小的更有效。
- ??与渐近无偏性从期望的极限角度理解不同相合性是从概率的角度,即未知参数的估计在样本量趋近于无穷大的时候,估计量依概率收敛到未知参数也即是说,當样本量增大的时候被估计的参数能够被估计到任意指定的精度。判断相合性我们采用验证它的充分条件: ??由大数定理知道,矩估计一般都是相合的
- ??MSE是通过计算参数估计值与真实值之差的平方的期望,其大小能够反映估计的好坏在同一估计类里越小越好。
- ??首先要注意充分性原则和充分性是两个不同的东西!充分性是描述统计量不丢失关于样本的任何信息,则称这个统计量为充分统计量那么,充分性原则和充分性一点关系都没有吗也不是的。在比较两个无偏估计的好坏的时候较好的那个无偏估计总是样本的充分統计量;并且,将不是样本充分统计量的统计量关于充分统计量求期望,得到的估计一定是充分统计量,并且新的估计的方差也得到叻降低
??换句话说,对于所有的统计推断问题考虑未知参数的估计问题,只需要在基于充分统计量的函数中进行即可这就是充分性原则。
??你可能还在想怎么将不是样本充分统计量的统计量关于一个充分统计量求期望?利用随机过程讲义的第一章的内容利用條件概率公式,连续函数求积分离散函数求∑。 - ??有效估计是一个估计它的方差达到了Cramer-Rao方程的下界,有效估计一定是UMVUE哈具体计算來判断是否是有效估计的话:
- 根据总体密度函数(含参数)检验满足C-R方程的条件;
- 求费希尔信息量,找到C-R下界;
- 对无偏估计求方差检验昰否等于C-R下界。
??之前我们讨论的都是点估计但是关于统计量的精度我们无法定量的回答,必须通过它们的分布来反映在实际中,喥量点估计精度直观方法就是给出未知参数的一个区间这就是区间估计。
??区间估计是想要找到两个统计量构成一个区间,这个区間盖住未知参数真值的可能性不确定但是人们总是希望在尽可能小的区间下,区间盖住真值的可能性越大越好由此得到置信区间的定義:
??置信区间,是一个有样本值得到的随机区间未知参数真值落在这个随机区间中的概率大于等于1-a,或者理解为未知参数真值不落在这个随机区间中的概率小于置信度,满足这个条件的随机区间称作置信区间首先,置信水平是随机区间盖住真值的概率置信水平等于置信度,然后我自己理解置信度是这样的:当大量重复实验,用置信区间的计算方法得到很多个N个随机区间的时候,有(N*
置信水平)嘚那么多个区间包括了均值。
??那具体怎么做区间估计呢我们通过构造区间估计的方法,使用最基本的枢轴量如何构造法:
-
??枢軸量如何构造是样本和未知参数的函数它具有的性质是其分布不依赖与未知参数,或者说它的概率密度函数与参数无关。 ??在参数未知的时候没有办法直接凭空从置信水平找到随机区间的上下限,所以采用枢轴量如何构造的分布函数以此为媒介,根据置信水平先算出枢轴量如何构造的置信区间,再反解出上下限
??其实2.已经解答过了,从未知参数的好的点估计(MLE)出发用它的性质和密度函數构造。根据置信水平通常采用等尾置信区间保证区间长度最短,先算出枢轴量如何构造的置信区间再反解出上下限。
- 有什么特别的檢验的构造套路吗
- 单个正态总体参数:分为均值、方差是否已知,对均值和方差分别都有不同的枢轴量如何构造
- 大样本置信区间:原理昰中心极限定理在样本方差已知的时候,很ok;在样本方差未知的时候中心极限定理的分布可以将方差换成它的相合估计。注意哦大样夲运用中心极限定理,最多只有样本的方差的相合估计代替方差不可以用均值的无偏估计代替总体均值位置上的μ的!
- 两独立正态总体丅均值之差和方差之比的置信区间:类似于单个正态总体,在估计均值的时候要看方差是否已知,或者方差成比例;在估计方差之比的時候直接就有枢轴量如何构造,不需要讨论均值是否已知
??除了这些,均匀分布的总体还有一些特别的构造方法课后题和期中考試卷子也有涉及,供自己参考~
??注:区间估计构造枢轴量如何构造的时候大量用到前面一章节的统计量及其分布、以及三大抽样分布嘚基础。
??参数的点估计—>穿插如何评价点估计的好坏—>参数的区间估计
??建议的学习思路:点估计—>评价点估计的好坏—>参数估计感觉独立开会更清晰一些~
??全文都是我个人的学习笔记,肯定有出现错误欢迎指正