行動決定の計算論 (特集 前頭前野機能の最前線--基礎から臨床まで)
スポンサーリンク
概要
著者
-
岡本 洋
富士ゼロックス(株)研究技術開発本部
-
深井 朋樹
理化学研究所脳科学総合研究センター
-
酒井 裕
玉川大学工学部
-
酒井 裕
京大理
-
酒井 裕
埼玉大学工学部情報システム工学科
-
酒井 裕
玉川大工
-
酒井 裕
京都大学大学院理学研究科物理学専攻
関連論文
- B23 トピックに依存した論文ランキング : 学術論文引用ネットワーク分析(セッションB2(情報システム構築),一般発表概要,第6回情報プロフェッショナルシンポジウム)
- Local Field Potentialを用いたスパイク発火の推定 (ニューロコンピューティング)
- 皮質神経細胞の不規則発火時系列が示唆する条件付きエントロピー最小化原理(脳活動の計測と解析,生命現象の非線形性,一般)
- 視覚認知における同一線分内の運動情報伝達
- 時間情報認知に関連した前頭前野の神経活動
- ダイナミッククランプ : 導入とネットワーク研究への展開
- 自己組織モデルの新しい方向
- 皮質神経細胞の不規則発火時系列が示唆する条件付きエントロピー最小化原理(脳活動の計測と解析,生命現象の非線形性,一般)
- Local Field Potentialを用いたスパイク発火の推定
- 特許引用ネットワーク分析 : 技術をめぐる知の戦いの可視化
- 特許引用ネットワーク分析 : 企業競争力源泉としての知的財産権の強化に向けて(研究現場の生の声(その(2)),複雑ネットワーク科学の拡がり)
- ヒステリシスニューロンネットワークの統計力学的解析(機械学習,一般)
- 漸次的持続活性の神経生理学的および計算論的知見が開く連想記憶の新しい地平
- 行動決定の計算論 (特集 前頭前野機能の最前線--基礎から臨床まで)
- 脳内時計の神経機構 (特集 最新 脳のモデルと数理)
- ニューロンクラスによるスパイク間隔統計の相違
- ニューロンクラスによるスパイク間隔統計の相違
- 13pTC-8 BVP モデルと LIF モデルの高次スパイク間隔統計量の相違(ニューラルネットワーク : 神経系のモデルを含む, 領域 11)
- 時空間構造をもつ入力に対するSTDPベースの自己組織化マップ
- LIFモデルとBVPモデルで見られる高次スパイク間隔統計の相違
- STDPによるシナプスパターンの競合と調節のメカニズム
- ニューロンモデルのクラス分類と入力の性質によるスパイク統計の相違
- 両眼競合知覚の神経機構
- 二次元動画像からの動作情報抽出
- A-2-23 カオス系列刺激によるBVPニューロンの応答とその統計的解析
- A-2-17 有色ノイズ入力を与えたBV ニューロンの応答
- BVPニューロンへの有色ノイズ刺激とその応答
- 26pXD-7 カルシウム濃度の線形和をスライド型閾値としたBCM型シナプス可塑性モデル(26pXD ニューラルネットワーク(神経系のモデルを含む),領域11(統計力学,物性基礎論,応用数学,力学,流体物理))
- カルシウム濃度の線形和を閾値としたBCM型シナプス可塑性モデル
- 離散的な特性と連続的な特性をもつ入力空間に対するSTDPトポロジカルマップ
- STDP学習則が導く現象--神経系数理における新展開 (最新 脳の数学理論--脳を語る情報と幾何の最前線)
- スパイク間隔による埋め込みの拡張について
- Second bilateral German-Japanese Workshop on Computational Neuroscience 報告
- 皮質ニューロンの入出力機構(基研研究会「ニューラルネットワーク〜これからの統計力学的アプローチ〜」,研究会報告)
- 皮質ニューロンの入出力機構
- NISS'99参加報告
- 大脳皮質神経細胞集団の形成--シナプス可塑性とその先 (特集 学習と記憶--基礎と臨床)
- 26pU-17 Random Spike Generator Modelの自己整合性とスパイクデータとの整合性
- 6p-YD-8 スパイク時系列データにもとづいたニューロンモデルの検討
- 25pTD-14 強化学習における時間割引の再考(25pTD ニューラルネットワーク,領域11(統計力学,物性基礎論,応用数学,力学,流体物理))
- 脳内情報表現に関する一般的な命題
- 現実的な皮質ニューロンモデルの回路において生成される自発的な二状態間遷移
- 28pWB-6 スパイクタイミングによる回路の自己組織化(領域11シンポジウム : 神経系のダイナミクスと機能)(領域11)
- 18aRD-5 順方向性結合神経回路網におけるスパイク相関
- 24pWD-8 Synfire chain and independency propagation
- 新たな学習原理の発見を目指して