授業の発表用に以下の論文を読んだので、ついでに一様分布についての知識をまとめておこうと思った。

Asymptotic efficiency in parametric structural models with parameter-dependent support
K Hirano, JR Porter - Econometrica, 2003

 X_i \sim U(0,\theta) かつi.i.d.の状況を考える。
まず、GMM推定量 \sqrt{n} -consistentであるのに対して、MLE(最尤推定量)は  n -consistent である。MLEは  \hat{\theta}_{MLE}=X_{(n)} であるので、Exactな分布が求められるので、  n(\hat{\theta}_{MLE}-\theta ) が指数分布に収束することは容易に確かめられる。(ここで  X_{(n)} はnth order statistics)
一方で、MLEはDownward biasedである。観察されるデータがパラメータより厳密に小さい値しかないことを考えると納得だろう。

具体的には、  Z_n=X_{(n)} の累積密度関数  G(x) は、Xの累積密度関数を F(x)=\frac{x}{\theta} とおくと、
[tex: G(x)= Pr(Z_n \theta-\frac{x}{n}) =1- (1-\frac{x/\theta}{n})^n \to 1-e^{-x/\theta} ]
になる。

上の論文での主張は、MLEよりもBayes Estimatorの方が優れているということだ。例えば、上の問題ならLoss FunctionがSquare Lossなら  \frac{n+1}{n}X_{(n)} 、Absolute Lossなら  \frac{n+\log 2}{n}X_{(n)} の時の方がLossが小さいし、Minmaxになっていることが知られているが、両方ともかなり自由にPriorを選べる場合のBayes Estimatorになっている。上の論文ではその一般化を行った。

また、一様分布のMLEをブートストラップしようとすると上手くいかないことも知られている。BootstrapはInconsistentで、Subsamplingするしかないことが知られている。Subsamplingにおいても、ConsistentlyにMLEの分布をブートストラップするためには、サブサンプルでResampleする割合にもnのオーダーの意味で制約がある。

一様分布は他にも面白い性質がいっぱいあって、色んな結果の反例を見つけるのによく使われる。たとえば、一様分布の特性関数は無限回X軸と交わったりする。