第3講 統計的推定

クラメール・ラオの下限 (情報量不等式)

θ^θ の不偏推定量とする.このとき,次が成り立つ.

V[θ^]1In(θ)
ただし,フィッシャー情報量が正であること,微分と積分の交換ができることが条件である.

不偏推定量 θ^

V[θ^]=1In(θ)
を満たせば,θ^ は一様最小分散不偏推定量 (UMVU) である. ただし,上式を満たさなくても,一様最小分散不偏推定量となる場合もあることに注意すること.

補足1: クラメール - ラオの不等式の証明

l(θ, X)=logf(x, θ)
とおく.
E[l(θ, X)]=E[ddθlogf(x, θ)]={ddθlogf(x, θ)}f(x, θ)dx={1f(x, θ)ddθf(x, θ)}f(x, θ)dx=ddθf(x, θ)dx=ddθf(x, θ)dx=0
θ=E[θ^(X)]=θ^(x)f(x, θ)dx
両辺を θ で微分すると,
1=θθ^(x)f(x, θ)dx=θ^(x)θf(x, θ)dx=θ^(x)logf(x, θ)θf(x, θ)dx=E[θ^(X)l(θ, X)]=E[θ^(X)l(θ, X)]θE[l(θ, X)]     E[l(θ, X)]=0=E[(θ^(X)θ)l(θ, X)]=Cov[θ^(X), l(θ, X)]
1=Cov[θ^(X), l(θ, X)]2V[θ^(X)]V[l(θ, X)]     コーシー・シュワルツの不等式=V[θ^(X)]In(θ)
この両辺を In で割ると,
V[θ^]1In(θ)