L1ノルム正則化のための最適化法 ぱらぱらめくる『スパース性に基づく機械学習』

  • 最適化法の種類
    • 繰り返し重み付き縮小法
      • 損失項とリッジ正則化項の和が効率的に最小化できることを仮定する
    • (加速付き)近接勾配法
      • 損失項の滑らかさだけを仮定する
    • 双対拡張ラグランジュ
      • 最小化関数が損失関数とデータ行列とに分解できることを必要とする
    • 双対向後方向乗数法
      • 双対拡張ラグランジュ法と同様の条件を必要とする。その上で、最小化関数が二乗誤差の場合にコレスキー分解を活用することで効率化する