3.3 ベイズ線形回帰何を問題にしているのか?
(イケてるモデルって何だろう・・)
• 線形回帰• 最尤推定→過学習!• モデルの複雑さ
線形回帰モデルをベイズ的に取り扱う
• 過学習を回避
• 訓練データだけからモデルの複雑さを自動的に決定
ところで、推定するといっても、どこから始めればいいんです??
まずそれっぽいのを決めておいて、データを見ながら修正していこう。
ということで・・・
• モデルパラメータ(ここでは重みw)の事前確率分布を導入
モデルを単純に
(3.52)
(3.52)の意味は?
(3.50)(3.51)から(3.53)(3.54)が導ける
ところで、この仮定はどこかで見たような・・・?
正則化との関連性
(3.55)
その他もろもろ
• p(w|t)の対数をとると、正則化項ありの誤差関数(3.27)と一致
• logp(w)が正則化項に相当• 「誤差関数(3.27)が小さくなるよう最適化」と「事後確率分布に基づいてMAP推定」が等価
具体例• 直線フィッティング• 事後分布を逐次的に更新
データ生成アルゴリズム
準備
事後分布を逐次的に更新
使う式
①
②
パラメータ推定アルゴリズム
※更新式として(3.53)(3.54)を使ってもいいが、これらはバッチ処理用なので注意
パラメータに関する他の形式
(3.56)
• ガウス事前分布の一般化• q=2でガウス事前分布と一致
(3.49)と2章の関連
• (3.49)は、実は2章の話を使って導出可能(と、テキストに書いてある)
• wがガウス分布に従うことが前提
記号の対応関係
2章
線形回帰モデル
式の対応関係
2章 (2.113) (2.114) (2.116)
線形回帰モデル (3.48) tの尤度. p(t|w)に相当.
(3.49)
※(2.115)は(3.58)に対応