如何理解极大似然估计?
1 引入
首先,来看这样一个例子: 一口袋中有许多红球和白球,只知道数目比例为 \(1:3\),不知道哪种多,通过实验来判断红球占的比例是 \(\frac{1}{4}\) 还是 \(\frac{3}{4}\) 。
今用有放回抽取的方法从口袋中抽取 \(n\) 个球,将红球的个数记为 \(X\) ,则 \(X\) 服从二项分布 \(B(n,p)\) 。如何由实验结果来估计 \(p\) 的值?
现在假设有这样一个实验结果:从口袋中抽取了100个球,其中红球的个数为80个,那么相应的抽取到白球的个数就为20个。
如果现在要求你从上述的实验结果中去判断红球占的比例是 \(\frac{1}{4}\) 还是 \(\frac{3}{4}\) ,大概很多人会选择 \(\frac{3}{4}\) ,这是一个很自然的选择,因为抽取的100个球中,红球占了大多数。(当然最后的结果有没有可能是红球占的比例是 \(\frac{1}{4}\) ,也有可能,但是在当前实验结果下,我们会认为出现这样结果的可能性会很小)
其实,在进行上述选择(根据实验结果去判断红球所占比例)过程中,我们不自觉的运用到了极大似然估计的思想,即:根据已经发生的结果,去选择一个原因,使得出现这样结果的可能性最大。换句话说,结果是在使它出现可能性最大的那个原因下发生的。
具体到这个例子,结果是从口袋中抽取了100个球,其中有80个都是红球;那么导致最大可能性出现该结果的原因就是原来口袋中红球所占的比例是 \(\frac{3}{4}\) 。
2 分析
根据极大似然估计的思想,可以在这简单总结一下,如何在一个具体实例中去运用:
- 求出发生该结果的一个概率表达式(其中可能带有未知参数,通俗理解就是原因);
- 根据概率表达式,调整未知参数(选择原因),使得出现该结果的概率最大。
下面,根据上述两个步骤,来看一下这样一个例子:
设总体 \(X \sim\left(\begin{array}{ccc}1 & 2 & 3 \\ 1-\theta^2 & \frac{\theta^2}{2} & \frac{\theta^2}{2}\end{array}\right), \theta(0<\theta<1)\) 未知,现得一样本值 \(1,3,2,3\) ,求 \(\theta\) 的极大似然估计值。
第一步,求出出现 \(1,3,2,3\) 结果的概率表达式:
\[\begin{aligned} & P\left\{\left(X_1, X_2, X_3, X_4\right)=(1,3,2,3)\right\} \\ & =P\left\{X_1=1, X_2=3, X_3=2, X_4=3\right\} \\ & =P\left\{X_1=1\right\} P\left\{X_2=3\right\} P\left\{X_3=2\right\} P\left\{X_4=3\right\} \\ & =P\{X=1\} P\{X=3\} P\{X=2\} P\{X=3\} \\ & =\frac{1}{8} \theta^6\left(1-\theta^2\right) \triangleq L(\theta) \end{aligned}\]第二步,根据概率表达式,调整未知参数,使得出现该结果的概率最大:
\[\begin{aligned} & L(\theta)=\frac{1}{8} \theta^6\left(1-\theta^2\right), \quad 0<\theta<1\\ & \ln L(\theta)=\ln \frac{1}{8}+6 \ln \theta+\ln \left(1-\theta^2\right)\\ & \text { 令 } \frac{d}{d \theta} \ln L(\theta)=\frac{6}{\theta}-\frac{2 \theta}{1-\theta^2}=0 \end{aligned}\]解出 \(\theta\) 的极大似然估计值 \(\hat{\theta}=\frac{\sqrt{3}}{2}\) 。
从上面这个例子中,可以发现使用极大似然估计的一个必要条件是需要知道总体类型(分布),因为只有这样才能求出结果的概率表达式。
3 总结
最后,大致来总结一下极大似然估计(Maximum Likelihood Estimation,MLE)方法:
-
离散型
设总体 \(X\) 的分布律:\(P \left\{X=x\right\} = p \left(x;\theta \right), \theta\in \Theta\) , \(\theta\) 未知,\(X_1,X_2,\cdots,X_n\) 是总体 \(X\) 的一个样本,\(x_1,x_2,\cdots,x_n\) 为样本值。称 \(L(\theta)=\prod \limits^{n}_{i=1}p(x_i;\theta)\) 为样本的似然函数,\(L(\theta)\) 的意义为样本值(结果)出现的概率。
令 \(\frac{d}{d\theta}lnL(\theta)=0,\theta \in \Theta\) ,则:
\(\hat{\theta}\left(x_1,x_2,\cdots,x_n\right)\) 为 \(\theta\) 的极大似然估计值;
\(\hat{\theta}\left(X_1,X_2,\cdots,X_n\right)\) 为 \(\theta\) 的极大似然估计量。
-
连续型
设总体 \(X\) 的概率密度函数:\(f\left(x;\theta\right),\theta \in \Theta\) ,\(\theta\) 未知,\(X_1,X_2,\cdots,X_n\) 是总体 \(X\) 的一个样本,\(x_1,x_2,\cdots,x_n\) 为样本值。
注意:\(\left(X_1,X_2,\cdots,X_n\right)\) 在\(\left(x_1,x_2,\cdots,x_n\right)\) 附近取值的概率正比于\(\left(X_1,X_2,\cdots,X_n\right)\) 的联合密度在\(\left(x_1,x_2,\cdots,x_n\right)\) 处的函数值。(因为在连续型分布中取到某点的概率为零,故改为在以该点为中心的一个微小邻域上进行取值)
记 \(L\left(\theta\right)=\prod \limits^{n}_{i=1}f\left(x_i;\theta\right)\) 称为样本的似然函数。 \(L(\theta)\) 的意义为正比于样本值出现的概率。
令 \(\displaystyle{\frac{d}{d\theta}}lnL(\theta)=0,\theta \in \Theta\) ,则:
\(\hat{\theta}\left(x_1,x_2,\cdots,x_n\right)\)为\(\theta\)的极大似然估计值;
\(\hat{\theta}\left(X_1,X_2,\cdots,X_n\right)\)为\(\theta\)的极大似然估计量。
4 补充
对于离散型总体和连续型总体分别进行实例的补充:
-
离散型
设总体\(X\) 服从几何分布,\(p(0<p<1)\) 未知,\(P\left\{ X=k \right\}=\left(1-p\right)^{k-1}p, \quad k=1,2,\cdots\) 求 (p) 的极大似然估计。
解:设\(X_1,X_2,\cdots,X_n\) 是总体\(X\) 的一个样本,\(x_1,x_2,\cdots,x_n\) 为样本值。
概率密度函数:\(p\left(x;p\right)=\left(1-p\right)^{x-1}p,\quad x=1,2,\cdots\)
似然函数:
\[\begin{aligned} L(p) & =\prod\limits^{n}_{i=1} p\left(x_i ; p\right)=\prod\limits^{n}_{i=1}(1-p)^{x_i-1} p =p^n(1-p)^{n \bar{x}-n} \\ \end{aligned}\] \[lnL(p) =n \ln p+(n \bar{x}-n) \ln (1-p)\]令\(\displaystyle{\frac{d}{d p}} \ln L(p)=\frac{n}{p}-\frac{n \bar{x}-n}{1-p}=0\) ,有:
\(\hat{p}=\frac{1}{\bar{x}},\quad p\) 的极大似然估计值;
\(\hat{p}=\frac{1}{\bar{X}},\quad p\) 的极大似然估计量.
-
连续型
设总体 \(X\) 密度
\[f(x)= \begin{cases} (\theta + 1) x^{\theta}, & 0 < x < 1 \\ 0, & \text {其他} \end{cases}\]\(\theta> -1\) 未知,求 \(\theta\) 的极大似然估计。
解:设\(X_1,X_2,\cdots,X_n\) 是总体\(X\) 的一个样本,\(x_1,x_2,\cdots,x_n\) 为样本值。
\(L(\theta) = \begin{cases} \prod_{i=1}^n (\theta+1) x_i^{\theta+1} \left( x_1 x_2 \cdots x_n \right)^\theta, & 0 < x_i < 1, i=1,2,\dots,n \\ 0, & \text{其他} \end{cases}\) 当 \(0 < x_i < 1, i=1,2, \cdots, n\) 时, \(\ln L(\theta)=n \ln (\theta+1)+\theta \sum_{i=1}^n \ln x_i\) 令\(\displaystyle{\frac{d}{d \theta}} \ln L(\theta)=\frac{n}{\theta+1}+\sum_{i=1}^n \ln x_i=0\),有:
\(\hat{\theta}=-\frac{n}{\sum_{i=1}^n \ln x_i}-1\) 为 \(\theta\) 的极大似然估计值;
\(\hat{\theta}=-\frac{n}{\sum_{i=1}^n \ln X_i}-1\) 为 \(\theta\) 的极大似然估计量.
留下评论