神経回路網による関数近似の二つの方法
スポンサーリンク
概要
- 論文の詳細を見る
3層神経回路網がコンパクト集合または全空間上の任意の連続関数を任意の精度で近似する能力をもつことはよく知られているが, これは活性化関数または基底関数の線形和が関数を近似し得ることを意味する.その近似の方法には典型的な二つの方法がある.一つは干ぼし煉瓦でピラミッドをつくるように基底関数(活性化関数)を積上げる方法であり, 他は基底関数(活性化関数)の線形和を近似すべき関数の表面に適合させる方法である.両者の長短を比較すると, 万能性においては前者が, 導関数の同時近似および素子の数が圧倒的に少なくて済むという点においては後者が優れている.
- 2000-03-14
著者
関連論文
- 2値乱数による神経回路網の学習とベイズ判別関数学習への応用(機械学習によるバイオデータマインニング,一般)
- スケール変換を伴わない基底関数の線形独立性と神経回路網による有限集合の写像
- 神経回路網による関数近似の二つの方法
- 状態遷移に適応したベイジアン学習(一般)(ニューロインフォーマティックスとは何か)
- 状態遷移に適応したベイジアン学習
- 内部パラメータの外部パラメータへの変換
- 展望 統計学の教育を考える(2)(附)標本相関係数のExact distributionについて
- 神経回路網による多項式と導関数の全空間における同時近似