スケール変換を伴わない基底関数の線形独立性と神経回路網による有限集合の写像
スポンサーリンク
概要
- 論文の詳細を見る
活性化関数の概念を高次元に拡張して、一次元空間Rで定義されたシグモイド関数やd-次元空間R^dで定義されたラジアル基底関数を共通の基盤の上で扱い、n個の隠れ層素子をもつ三層神経回路網によるR^dのn個の点からRへの有限写像を扱う.隠れ層素子の入出力関数は活性化関数の線形変換として得られ、出力の基底関数となる.活性化関数がスケール変換されないという条件下でも、三層神経回路網はR^dからRへの有限写像を実現することが出来る.そのような条件下で活性化関数となり得る関数のクラスも十分に広い。この報告は、任意のシグモイド関数にたいして得られている結果((Ito and Saito(1996))を拡張するものである。
- 2000-12-01
著者
関連論文
- 2値乱数による神経回路網の学習とベイズ判別関数学習への応用(機械学習によるバイオデータマインニング,一般)
- スケール変換を伴わない基底関数の線形独立性と神経回路網による有限集合の写像
- 神経回路網による関数近似の二つの方法
- 状態遷移に適応したベイジアン学習(一般)(ニューロインフォーマティックスとは何か)
- 状態遷移に適応したベイジアン学習
- 内部パラメータの外部パラメータへの変換
- 展望 統計学の教育を考える(2)(附)標本相関係数のExact distributionについて
- 神経回路網による多項式と導関数の全空間における同時近似