ホップフィールドニューラルネットの重みの決定法とその評価
スポンサーリンク
概要
- 論文の詳細を見る
ニューロンの出力関数を区分線形関数としたときに超立方体の頂点がホップフィールドネットの極小解になる条件を明らかにする.さらにこれに基づき,制約条件を満たす解がすべて安定となるようにエネルギー関数中の重みを決定する方法を導く.ついで巡回セールスマン問題に上記方法を適応し,10都市,20都市,30都市の巡回セールスマン問題の数値計算により次のことを示す.(1)初期値を一様乱数で設定したとき上記決定法で定まる値より制約条件の重みを大きくすると制約条件を満たす解が常に求まる.このとき解の質は重みの値が小さいほどよい.(2)初期値をすべて同一に設定したうえで微小外乱を加えると初期値を超立方体内部の平衡点のまわりに設定したのと等価であり一様乱数よりも解の質が改善されしかも外乱が小さいほうがよい.上記の決定法で定まる値より制約条件の重みを小さくすると制約条件を満たさない解が求まるようになるが制約条件を満たす解の質は改善される.
- 一般社団法人情報処理学会の論文
- 1993-01-15
著者
関連論文
- スーパミニコン内蔵型ベクトルプロセッサの演算制御方式
- コホーネンネットのフィーチャーマップを利用した配置問題の解法
- ベクトル量子化機能を利用したコホーネンネットによる配置問題の解法
- 学習前にパターン認識用ネットの収束を判定する方法
- パターン認識用ネットからのアルゴリズムの抽出法
- 内蔵型高速PROLOGプロセッサIPP(XII) : システム統合
- 非零対角要素を持つホップフィールドニューラルネットを用いたLSIモジュール配置法
- Prologの最適化方式
- パターン認識用ネットの学習の高速化と汎化能力の向上方式
- パターン認識用ニューラルネットの構築法
- パターン認識用ニューラルネットのチューニング法
- パターン認識用ニューラルネットはいかにして構成できるか?
- 線形回帰分析による多層ニューラルネットの中間層ニューロン数決定方法
- モード情報を用いたシャローバックトラックの高速化方式
- 内蔵型PrologプロセッサIPPの最適化コンパイル方式の提案と性能評価
- Prolog最適化コンパイラの開発(VII) : 大域最適化コンパイル方式
- Prolog最適化コンパイラの開発(VI) : 大域最適化評価と高速リスト処理命令の提案
- Prolog最適化コンパイラの開発(V) : 構造体のハッシング方式と動的評価
- 楕円領域をもつファジィクラシファイアの学習方式
- ファジィ領域の解析による特徴量の選択
- 教師データから抽出したファジィルールのチューニング法
- 汎化能力向上を目的としたクラスタリング用ニューラルネットの学習方式
- クラスタリング用ニューラルネットの学習方式
- 不等式の求解によるファジィルールのチューニング
- 楕円領域の解析による特徴量の選択
- 不等号制約を持つHopfield型ニューラルネットの収束理論
- 教師データから直接抽出したファジィルールによるパターン認識
- ホップフィールドネットの積分の高速化方式
- ホップフィールドニューラルネットの重みの決定法とその評価
- 並列順伝播学習方式
- Hopfield型ニューラルネットの理論的考察