2017/10/10
2020/04/14
ベイズ統計の仮説検定〜ベイズファクター〜【第4回】
ベイズ統計の仮説検定は全6回にわたって説明しています。他のページもぜひご覧ください。
【第1回】ベイズ統計の仮説検定〜頻度論との違い〜
【第2回】ベイズ統計の仮説検定〜基本的な検定〜
【第3回】ベイズ統計の仮説検定〜頻度論の考え方に基づく検定〜
【第4回】ベイズ統計の仮説検定〜ベイズファクター〜 ←イマココ!
【第5回】ベイズ統計の仮説検定〜点帰無仮説の場合〜
【第6回】ベイズ統計の仮説検定〜問題点とまとめ〜
ベイズ統計における仮説検定の問題点
今まで説明してきたベイズ統計における仮説検定ですが、実は大きな問題があります。
事後分布は事前分布によって与えられることは、ベイズの定理からすでに証明済みです。つまり、事後オッズ比も事前分布の設定によって左右されるのです。
例えば、
\(H_0:\theta\leq\theta_0\)
\(H_1:\theta>\theta_0\)
という検定を考えるとし、事前分布を次のように設定したとします。
この分布だと、すでに帰無仮説が棄却されてしまう状態になっています。さらにここにデータを追加しても、非常に帰無仮説が棄却されやすい状態であることには変わりありません。このようにベイズ統計の仮説検定には、事前に設定する確率によって、帰無仮説を棄却する可能性に差が生じるという弱点があります。
事前分布は自分で設定するものですから、帰無仮説を棄却したいなら、事前分布の帰無仮説を満たす確率を小さくしてしまえば簡単です。しかし、これでは正確な検定ができません。
そこで、ベイズ統計の仮説検定では、証拠の強さを示すベイズファクターというものが存在します。これによってこの弱点を補うことが可能です。
ベイズファクターの定義
ベイズファクターを説明するために、理論的な計算から入ります。
例えば、
\(H_0:\theta\in\Theta_0\)
\(H_1:\theta\in\Theta_1\)
という検定を考えます。いま、\(\pi_0\)と\(1-\pi_0\)をそれぞれ\(\Theta_0\)と\(\Theta_1\)の事前確率とします。これを図で表すと、以下のようになります。
\(g_i(\theta)\)を\(\Theta_i\)のもとでの\(\theta\)の事前分布の密度関数とすると、
\(g_i(\theta)=\frac{\pi(\theta)}{\int_{\theta\in\Theta_i}\pi(\theta)d\theta}\)
であるから、
\(g_0(\theta)=\frac{\pi(\theta)}{\int_{\theta\in\Theta_0}\pi(\theta)d\theta}=\frac{\pi(\theta)}{\pi_0}\)
\(g_1(\theta)=\frac{\pi(\theta)}{\int_{\theta\in\Theta_1}\pi(\theta)d\theta}=\frac{\pi(\theta)}{1-\pi_0}\)
と与えられます。よって、事前分布は、
\(\pi(\theta)=\pi_0g_0(\theta)I(\theta\in\Theta_0)+(1-\pi_0)g_1(\theta)I(\theta\in\Theta_1)\)
と分解することができます。ただし、\(I(・)\)は指示関数です。
これを利用して事後オッズ比を導出していきます。
事前分布\(\pi(\theta)\)のもとでのXの周辺尤度を\(m_{\pi}(x)\)とすると、事後分布\(\pi(\theta|x)\)はベイズの定理より、以下のように与えられます。
\(\pi(\theta|x)=\frac{f(x|\theta)\pi(\theta)}{m_{\pi}(x)}\)
この式は、\(\theta\in\Theta_0\)のとき
\(\frac{\pi_0g_0(\theta)f(x|\theta)}{m_{\pi}(x)}\)
であり、\(\theta\in\Theta_1\)のとき
\(\frac{(1-\pi_0)g_1(\theta)f(x|\theta)}{m_{\pi}(x)}\)
となります。よって、データが与えられた上での仮説を満たす確率\(P(H_i|X)\)は、その積分値
\(P(H_0|X)=\int_{\Theta_0}\frac{\pi_0g_0(\theta)f(x|\theta)}{m_{\pi}(x)}d\theta\)
\(P(H_1|X)=\int_{\Theta_1}\frac{(1-\pi_0)g_1(\theta)f(x|\theta)}{m_{\pi}(x)}d\theta\)
で与えられます。従って、事後オッズ比は、
\(\frac{P(H_0|X)}{P(H_1|X)}=\frac{\int_{\Theta_0}\frac{\pi_0g_0(\theta)f(x|\theta)}{m_{\pi}(x)}d\theta}{\int_{\Theta_1}\frac{(1-\pi_0)g_1(\theta)f(x|\theta)}{m_{\pi}(x)}d\theta}\)
\(=\frac{\frac{\pi_0}{m_{\pi}(x)}\int_{\Theta_0}g_0(\theta)f(x|\theta)d\theta}{\frac{1-\pi_0}{m_{\pi}(x)}\int_{\Theta_1}g_1(\theta)f(x|\theta)d\theta}\)
\(=\frac{\pi_0\int_{\Theta_0}g_0(\theta)f(x|\theta)d\theta}{1-\pi_0\int_{\Theta_1}g_1(\theta)f(x|\theta)d\theta}\)
と計算できます。ここで、\(\pi_0\)によらない部分、つまり
\(\frac{\int_{\Theta_0}g_0(\theta)f(x|\theta)d\theta}{\int_{\Theta_1}g_1(\theta)f(x|\theta)d\theta}\)
をベイズファクター\(BF_{01}\)と定義します。よって事後オッズ比は、
\(\frac{P(H_0|X)}{P(H_1|X)}=\frac{\pi_0}{1-\pi_0}BF_{01}\)
と表すことができます。
また、事後分布によって決められる事後オッズ比に対して、\(\frac{\pi_0}{1-\pi_0}\)の部分は、事前分布によって決められる事前オッズ比ということができるので、結果この式は日本語で
$$事後オッズ比=事前オッズ比×ベイズファクター$$
と簡単に表すことができます。
ベイズファクターは検定の証拠の強さを表す指標
ベイズファクターは、仮説検定における証拠の強さを表すことができます。
Jeffreysはベイズファクターの証拠価値を次のように表現しています。
ベイズファクター | 証拠の強さ |
---|---|
\(1>BF_{01}\geq\frac{1}{3.2}\) | 帰無仮説を支持することに反対する証拠がほとんどない |
\(\frac{1}{3.2}>BF_{01}\geq\frac{1}{10}\) | 帰無仮説を支持することに反対する証拠があまりない |
\(\frac{1}{10}>BF_{01}\geq\frac{1}{32}\) | 帰無仮説を支持することに反対する証拠が十分にある |
\(\frac{1}{32}>BF_{01}\geq\frac{1}{100}\) | 帰無仮説を支持することに反対する強い証拠がある |
\(\frac{1}{100}>BF_{01}\) | 帰無仮説を支持することに反対する決定的証拠がある |
この表から、\(BF_{01}\)が0に近づけば近づくほど、帰無仮説を棄却するための証拠が強くなると言えます。
なぜこのような結果になるのか、それは実は一目瞭然です。
例えば
\(H_0:\theta\leq\theta_0\)
\(H_1:\theta>\theta_0\)
という検定において、事前オッズ比を\(\frac{4}{1}\)とするように事前分布を設定したとします。これは事前分布において帰無仮説を満たす確率が80%であるという、帰無仮説が非常に棄却されにくい状態で設定したということです。そこで、例えばベイズファクターが以下の場合
⑴\(BF_{01}=\frac{1}{30}\)の場合
事後オッズ比は\(\frac{4}{1}×\frac{1}{30}=\frac{1}{7.5}>\frac{1}{19}\)
⑵\(BF_{01}=\frac{1}{100}\)の場合
事後オッズ比は\(\frac{4}{1}×\frac{1}{100}=\frac{1}{25}<\frac{1}{19}\)
このような結果が得られます。つまり、\(BF_{01}\)の値が\(\frac{1}{100}\)もあれば、帰無仮説が非常に棄却されにくい状態で設定したとしても、帰無仮説を棄却することができるのです。そういった意味で、\(BF_{01}\)が0に近づけば近づくほど、帰無仮説を満たす確率を小さくするための割合が大きくなるので、棄却するための証拠が強くなっていると言えます。
前回の例題でベイズファクターを計算する
前回の例題で、ベイズファクター用いて計算して見ましょう。
前回の例題→【第3回】ベイズ統計の仮説検定〜頻度論の考え方に基づく検定〜
成人男性の平均身長が170cmより大きいかどうかを調べたい。いま、成人男性の身長は\(N(\mu,10^2)\)に従っているとする。ひとりのデータ取ってきたところ、177cmであった。成人男性の平均身長が170cm以下であると言えるか。ただし、\(\mu\)は事前に\(N(172,20^2)\)に従っているとし、しきい値を\(\frac{1}{19}\)とする。
前回、事後オッズ比が0.335であると計算しました。
ここで、事前オッズ比を計算しましょう。
\(\pi_0=P(\mu\leq170)=\Phi(\frac{170-172}{20})=\Phi(-0.1)=0.460\)
\(1-\pi_0=1-0.460=0.540\)
より、事前オッズ比は
\(\frac{\pi_0}{1-\pi_0}=\frac{0.460}{0.540}=0.852\)
となります。よってベイズファクターは
\(BF_{01}=\frac{0.335}{0.852}=0.393\)
と得られます。よって表から、帰無仮説を支持することに反対する証拠がほとんどない、という結果が得られます。
まとめ
いかがでしたでしょうか。ベイズ統計における仮説検定では、事前分布の設定によって帰無仮説の棄却され易さに差が生じてしまうため、ベイズファクターを用いてその検定を評価する必要があるのです。
次回は点帰無仮説の場合の検定について解説します。
【第1回】ベイズ統計の仮説検定〜頻度論との違い〜
【第2回】ベイズ統計の仮説検定〜基本的な検定〜
【第3回】ベイズ統計の仮説検定〜頻度論の考え方に基づく検定〜
【第4回】ベイズ統計の仮説検定〜ベイズファクター〜 ←イマココ!
【第5回】ベイズ統計の仮説検定〜点帰無仮説の場合〜
【第6回】ベイズ統計の仮説検定〜問題点とまとめ〜
Recommended