Kullback-Leibler情報量と最尤推定
Kullback-Leibler情報量(Kullback-Leibler divergence, 以下KL情報量)についての超基本事項と最尤推定との関係についてまとめます。
KL情報量とは
KL情報量とは、二つの確率分布 p(x) と q(x) がどれだけ近いかを表す指標の一つです。
定義は以下の通りです。
D(p,q)=∫p(x)logq(x)p(x)dx
D(p,q)=D(q,p) なので厳密には距離とは言えませんが、二つの確率分布間の近さを測る量となっています。
D(p,q)=∫p(x)logq(x)p(x)dx=−∫p(x)logp(x)q(x)dx≧−∫p(x)(p(x)q(x)−1)dx=∫p(x)dx−∫q(x)dx=1−1=0
より、「D(p,q)≧0」 「D(p,q)=0⇔p(x)≡q(x)」 の二つが言えます。
なお、途中の不等号評価には「 logx≦x−1 ( x=1 のとき等号成立)」を利用しています。
KL情報量の意味
まず情報量についての話をします。
確率 p(x) で起こる事象 E が実際に起こったときの情報量 I(E) を
I(E)=−logp(x)
で定義します。
これは「よく起こることより稀に起こることの方が実際に観測されたときの情報価値が高い」という考えに基づいていて、確率 p(x) が0に近い方が I(E) の値は大きくなります。
さて、情報量という視点からKL情報量を見てみます。
D(p,q)=∫p(x)logq(x)p(x)dx=∫p(x)(logp(x)−logq(x))dx=∫p(x)(Iq(x)−Ip(x))dx
Iq(x)−Ip(x) は x が起こったときの情報量の差を表しています。
つまり、KL情報量とは、「二つの確率分布の情報量の差の(一方から見た)期待値」ということになります。
(情報量の話についてはもう少し詳しく勉強した際に追記するかもしれません)
KL情報量と最尤推定
ある未知分布 p0(x) に従う N 個の独立な観測値 xN=(x1,x2,⋯,xN) が得られたとき、パラメータ θ で指定される確率分布 p(x;θ) で p0(x) を近似することを考えます。
KL情報量の観点から θ の推定値を求めていきます。
p0(x) と p(x;θ) の間のKL情報量は
D(p0,p)=∫p0(x)logp(x;θ)p0(x)dx=∫p0(x)logp0(x)dx−∫p0(x)logp(x;θ)dx
第1項は θ に依存しないため、第2項を最大化するような θ のときKL情報量が最小となり、よく近似されることになります。
とはいえ、 p0(x) は未知分布なのでこのような θ を直接求めることはできません。
そこで第2項 ∫p0(x)logp(x;θ)dx を
N1i=1∑Nlogp(xi;θ)
によって近似します。(これは N→∞ のとき、大数の法則により ∫p0(x)logp(x;θ)dx の値に収束します。)
つまり、 θ の推定量として N1i=1∑Nlogp(xi;θ) を最大化するような値を採用することになりますが、これは最尤推定値 θ^(xN) に他なりません。
今回のまとめ
- N→∞ のとき、最尤推定値はKullback-Leibler情報量を最小化する(最尤推定とKullback-Leibler情報量の最小化が同値な問題と言える)。
参考
東京大学工学教程「確率・統計Ⅲ」, 駒木文保 清智也
KL情報量を概念的に理解する:https://www.yasukelab.com/entry/2016/06/07/145455