イモ(どこの?)。

tatsuamano2005-12-22

ジャガイモは特に好きでない。
どちらのイモ派かと言えば、断然サツマイモ派。しかし、こいつ→は違った。
 昨日YnYnさんからもらった、曰く「これはおいしい」ジャガイモ。ふ〜ん、と何も思わずに家でむいてみたら、
なにやら黄色い。
いかにもうまそう。
そして食べてみてびっくり!うまい!
 中身がしっかり詰まっている感じで、それでいてホクホクで。味がしっかりしていて。。味オンチの僕が思ったんだから間違いはないでしょう。
ただ。
くれた本人が実家に帰ってしまったので、どこのイモだかわかりませんが。。。
まぁそんなことはさておき。
モデルセレクションです!
 ちょっと必要があって、いる・いないデータでロジスティック回帰(今はGLM?)を使っているのですが、こないだの話題の流れからも、せっかくなのでモデル選択をしようと思い。
やはりYMRさんの助言を得ながら、全てのモデルをつくって、AICで順番つけて、⊿iだして。。
 でも本当にすごいと思ったのはここからです。いわゆるmodel averagingというやつ。Akaike Weightsを出して、それに基づいて全てのモデルの結果から、重み付け平均によってひとつの係数(変数に対する)を出し、さらにunconditionalなSEから信頼区間を出すことで、各変数の重要性を議論する、という一連の手順。
 これをやってみたら、重回帰などで出てくるモデルのP値によって、「この変数は〜〜だから有意で・・」とか、「この変数は・・・だから今回は有意でなくて・・」なんて考えていた自分のアホらしさを思い知らされました。
 特にいろいろな制約の多い観察データの解析において、現在のデータセットのみで、ちょっとした値の差で、「有意」となった変数について議論するのではなく、「変数(モデル)選択の不確実さ」までを考慮して総合的に結論を考えられることの利点を実感いたしました。