層状ニューラルネットワークにおける学習アルゴリズムの初期値問題
スポンサーリンク
概要
- 論文の詳細を見る
Multilayer perceptrons, trained with the back-propagation algorithm, have been applied successfully in a variety of diverse areas. Basically, the BP algorithm is a gradient technique and not an optimization technique. The error surface, with the weights as coordinates, has local minima in addition to global minima. Therefore, the BP algorithm has some difficulties, which are local minima, generalization (or over learning) , size of learning parameter, etc. The local-minima problem is related to the choice of initial value of weights. In this paper we discuss four algorithms which use back-propagarion error. These algorithms are characterized by three learning parameters : the learningrate parameter α; momentum constant β; and parameter γ which is used in the proposed method for removing singular points of BP errors. We tested the performace of these algorithms for the Exclusive OR (XOR) problem which is not linearly separable. From the computer simulation, parameter γ is very effective for learning acceleration and improving the rate of convergence for setting initial values of weights.
- 東海大学の論文
- 1997-03-30
著者
関連論文
- 増殖型線形ニューラルネットワークによる主成分分析
- リアルタイム音声分離のための独立成分分析
- 線形ニューラルネットワークによる主成分分析 : すべての主成分の抽出
- 教育支援のためのアクセス解析システムの開発
- プログラミング教育におけるインターネット教材の評価
- インターネット配布による課題学習についての検討
- 任意話者間の音声特徴パラメータの変換
- 大規模ニューラルネットワークにおける学習の高速化 : 衛星画像における雲近傍効果の評価への応用
- 層状ニューラルネットワークにおける学習アルゴリズムの初期値問題
- 海色データにおける雲一気体分子散乱の影響 -神経回路網を用いた被影響画素の識別-
- 増殖型ニューラルネットワークによる学習の改良
- 開発工学部における「情報処理実習」に対する授業評価の要因分析
- プログラミングのための自習用教材の開発
- プログラミングのための自習用教材の開発
- 任意音声生成のためのニューラルネットワークにおける学習の高速化