η-divergenceを用いたAdaBoostのロバスト化(<特集>情報論的学習理論論文小特集)
スポンサーリンク
概要
- 論文の詳細を見る
判別問題においてAdaBoostはシンプルかつ強力な方法であり,そのアルゴリズムは指数ロスを逐次最小化しているとみなせる.AdaBoostは例題に対する重みを指数的に更新することで学習を行うが,重みの更新が急すぎるがゆえに例題中に含まれる外れ値に影響されやすいという特徴をもつ.本論文ではAdaBoostに修正を加えてロバスト化した新たなアルゴリズム η-Boostを提案する.そのロス関数は指数ロスとナイーブエラーロス関数からなる.η-Boostのアルゴリズムがある種のcontaminationモデルに対して特にロバストであることを示し,簡単な数値実験を行う.
- 2003-07-01