いちばん単純なのはフィッシャーのやつ。
帰無仮説をつくる。
その仮説のもとで、統計量をえらんで、P値を計算する。
p値があり得ないくらい小さければ、帰無仮説を棄却する。
そのP値はエビデンスとして扱う。
対立仮説のことを必ずしも意識してないけど、
帰無仮説でない、ってのは対立仮説になるだろう。
ネイマンの(frequentist)が次にかんたん。
帰無仮説と、それとは互いに素である対立仮説を用意する。
P値をもとめる。
P値が、あらかじめ設定してあった(許容されうる慌て者の間違いに相当する)
閾値よりも小さくなれば、帰無仮説を棄却する。
エビデンスはP値ではなくて閾値になる。
正直、対立仮説と帰無仮説の関係がそれでいいのかよとは思う。
帰無仮説でない、が対立仮説でなければまずいんじゃねえの?
ベイズがいちばん面倒だけど、いちばん普通の考え方かもしれない。
帰無仮説と対立仮説を用意する。
それぞれの尤度を計算する。
それぞれの尤度で比をとって、とても離れていれば(比が大きく・小さくなれば)
対立仮説を支持する。
エビデンスとしては、事後確率としての帰無仮説の成立の確率を(尤度比から)計算する。
フィッシャーのは用途がちょっと特殊である。
基本的に帰無仮説は偽である。
ただ、実験データとして、それが示されているかどうかはわかんない。
測定のばらつきは、データの大きさとくらべてちいさいかどうか、
がわかんないからだ。
そこを見積もるための客観的な尺度として使う。
ネイマンのも同様に特殊だ。
あるひとつのことを繰り返し繰り返しテストしたときに、
慌て者の間違いが予想よりも大きくならないように気を使っている。
そんなに繰り返しテストすることって、工場でもなければ、ないだろうな。
データが毎日更新されていて、
どんどん増えていくなかで、今日やったこれの結果をみて、
明日どう行動するといちばん有利かを考える。
天気予報みたいな?
これは私達の日常でよくおきる。
帰無仮説は間違ってるかも、正しいかも、わかんないながら。
そういうのをすっきりと解決するにあたって、
ベイズはよい道具だろう。
より一般的だし。
そして、データ増えれば、帰無仮説も対立仮説も進化するので、
事前確率の推定も正確になるしね。
進化するのだねこれは。
0 件のコメント:
コメントを投稿