Simulation and the asymptotics of optimization estimators

Simulation and the asymptotics of optimization estimators
Pakes, D Pollard - Econometrica: Journal of the Econometric Society, 1989

シミュレーションを使ったGMM的な推定における一般的な状況でも使える漸近理論を提示しているのがこの論文。
 G(\theta)=\int h(x,\theta)P(dx)=0
のユニークな解がθ0だとする。しかし、hが複雑な積分を含むような場合、計算コストが高くなるという問題が生じる。たとえば、
 h(x,\theta))=\int H(x,\xi,\theta)P(\xi|dx)=0
というかたちだとする。ξの分布は既知とする。

たとえば、Coefficientの分布が既知のときのRandom Coefficient Logitを考えよう。係数の値が与えられればLogitなので選択確率は簡単にかけるが、係数がRandomなので各係数の実現値に関してLogitの選択確率を計算してそれを係数の分布で積分するといった作業が必要になる。しかし、その積分は必ずしも簡単ではない。
もっとも直感的かつ簡単そうなのは、係数の分布からいくつか適当に値をドローしてきて、そのシミュレートされた値の平均で積分を置き換えるという方法だ。この論文ではその方法の漸近理論を確立している。

モデルに戻ると、
 \{ \xi_{i1},\cdot \cdot \cdot , \xi_{is} \}
という値を
 P(\cdot|x_i)
から引いてきて、
 \hat{h}(x_i,\theta))=s^{-1} \sum_{j=1}^s H(x_i,\xi_{ij} ,\theta)
でhを置き換えて
 G_n(\theta) = n^{-1}  \sum_{i=1}^n \hat{h}(x_i,\theta))
という目的関数をつくりGMM的な推定をするという方法を提示している。

Gかスムーズであれば、Hが不連続でも(よってその足し算であるG_nが不連続でも)いいってのが何回か書いてあったので、そこが売りなのかもしれない。


基本的にはGMMと同じような条件のもとでいい漸近性質を持つのだが、G_nとGがUniformly Small in all θっていうのが難しく、かつ大事なポイントであるようで、2章はまるまるそのことについて書かれている。
ここでは割愛。


ざっくり定理だけ紹介すると、

一致性
  •  || G_n(\theta_n ) || \leq o_p(1)+ inf || G_n(\theta ) ||
  •   G_n(\theta_0) = o_p(1)
  •  sup _{\theta -\theta_0 > \delta} || G_n(\theta ) ||^{-1} = O_p(1)

という条件のもとで、θ_nはθ_0の一致推定量である。

漸近正規性
  •  || G_n(\theta_n ) || \leq o_p(n^{-1/2})+ inf || G_n(\theta ) ||
  • G is differentiable at θ_0 with a derivative matrix Γ of full rank.
  • G_nとGが近い(論文ではちゃんと条件あり)
  •  \sqrt{n}G_n(\theta_0) \ \ \text{converges in distribution to } \ \ N(0,V)
  • θ_0はパラメタセットの内部

 \sqrt{n}(\theta_n - \theta_0)  \ \ \text{converges in distribution to } \ \  N(0,(\Gamma ' \Gamma)^{-1} \Gamma ' V \Gamma (\Gamma ' \Gamma)^{-1})

以上でめでたしめでたし。
本文ではΓを一致的に推定する方法もちょろっと載ってたけど、基本的にはサンプルモーメントで置き換える感じ。