リッジ回帰(Ridge Regression)の正規方程式を導出
リッジ回帰(Ridge Regression)の正規方程式を導出
リッジ回帰(Ridge Regression)の正規方程式を導出するメモ. L2ノルムの2乗により微分が容易にできるので解析解として導出できる.
回帰モデルの定義
観測データの標本の大きさを$N$, データ$x$の特徴量をd次元とし, $i$番目の出力値$y_{i}$の回帰モデルは, 重み$w$で表すと,
右辺をベクトル・行列で表すと,
標本の大きさN個分の出力に拡張する.
ベクトル・行列で表現すると,
Xはデータ行列で$N \times (d+1)$行列になる.
重みベクトルの$w_{0}$は定数バイアスになる.
重みの導出
誤差関数は,予測誤差のL2ノルムの二乗,ペナルティ項も重みのL2ノルムの二乗になる. alphaは重みベクトルのL2ノルムを予測誤差に対してどのくらい考慮するかでハイパーパラメータになる.
重みベクトルで微分して0とおく.
$\alpha \mathbf{I}$の項により,逆行列の中のグラム行列にハイパーパラメータ分下駄が履かせられるので 重みベクトル$\vec{w}$の値は小さくなる.