Identification and Estimation of a Nonparametric Panel Data Model with Unobserved Heterogeneity

K Evdokimov - 2009, JMP

Yaleを2010年卒業予定の学生のJob Market Paper。今年のスターで、うちはもちろん、シカゴ大などからもオファーをもらい、結局Princetonに二年間ティーチングなしの条件付で就職。
ペーパー自体は、非線型モデルのパネルデータで固定効果やランダム効果があるとき、ノンパラメトリックな識別&推定の話。かなり直感的かつ分かりやすい一方、これが今までやられていなかったのが不思議なほど素直な論文だと思う。

識別の部分だけまとめる。識別も建設的に議論をしてるので、その議論をそのまま推定にも用いる。Rate of Convergenceはめんどくて読まなかった。

基本的なモデルと仮定

 Y_{it}=m(X_{it},\alpha _i)+U_{it}
で、mがUnknownの場合を考える。主なIdentification Assumptionsは以下。

  •  f_{U_{it}|X, \alpha, U_{i-t}} = f_{U_{it}|X_{it}}
  •  E(U_it | X_it=x)=0
  •  f_{X}(x,x)>0
  • m(x、α)はαに関して弱増加関数
  • Uの特性関数はR上で0にならない。

最初の仮定は、Uがその期、その個人以外の変数と独立ということ。二つ目の仮定は普通のMean Independence。3個目の仮定はIdentificationで重要になってくる。4つ目の仮定も識別で重要。5個目の仮定も微妙に使う。UがUniformだったりすると、無限回0になるので、識別の手順でちょっと困る。

あと、大事になってくるレンマ。

  • (Y_1,Y_2)=(A+U_1,A+U_2) とする。AとUが互いに独立(+ちょっと仮定)ならYのジョイントDistributionから、AとUの分布は識別できる。

Random Effectの場合

上以外に

  • αとXは独立
  • αはU(0,1)として分布している

という仮定をおく。二つ目はNormalizationなので、一つ目だけ重要。まぁ、Random Effect的な仮定ですね。

識別は以下の手順で行う。

  1. レンマから、xが変化しないIndividualを使って、UをIdentifyする
  2. Yの特性関数は、mの特性関数とUの特性関数の積で書けるが、データとステップ1から、mの特性関数を識別できる。(Uの特性関数が0にならないことを使う)
  3. mの特性関数が識別できると、そこからmの分布が識別できる。mはαに関して増加関数なので、xをとめてmのQuantileをみれば、その値とαの値は一致する。よって、m(x、α)が識別できる。

Correlated Random Effect(Fixed Effect?)

上では、αとXの独立性を仮定したが、ここでは任意の同時分布のもとでの識別を考える。
仮定として

  • mはαに関してStrictな増加関数
  • For some x',m(x',α)=α
  • サポートの仮定(詳しくは論文を)

をおく。二番目の仮定はさっきとは別の標準化。ノンパラのリテラチャーではよくある標準化だと思う。

同じような手順で識別できる。

  1. レンマから、xが変化しないIndividualを使って、UをIdentifyする
  2. 二期目の観察されたXがx'であるようなサンプルから、さっきと同じように、αの特性関数と、m(x,α)の特性関数を識別できる
  3. 上で識別されたものたちはあくまで、(x,x')が観察されたという条件付のものだが、m(x,α)自体は、それら+上でつかってQuantileのテクニックで識別できる。ここではさらにX=xの条件付でのαの分布も識別できる。

ざっくばらんにはこんな感じ。
UのSerial Correlationは著者自体が拡張を書いてるが、Lagged Dependent Variableのケースや、誤差項が線形で入ってこない場合についてはFutuer Researchを待っている感じだと思う。