発話ロボットを用いた聴覚障碍者のための発話訓練(コミュニケーション支援及び一般)
スポンサーリンク
概要
- 論文の詳細を見る
A talking and singing robot which adaptively learns the vocalization skill by an auditory feedback learning is being developed. In vocalization, the vibration of vocal cords generates a source sound, and then the sound wave is led to a vocal tract, which works as a resonance filter to determine the spectrum envelope. The robot consists of motor-controlled vocal organs such as vocal cords, a vocal tract and a nasal cavity to generate a natural voice imitating a human vocalization. An adaptive learning algorithm using a neural network is introduced for the achievement of the autonomous acquisition of vocalization skill. In the learning phase, the robot vocalizes 150 patterns of voices by ramdomly giving the motor-control parameters, and the generated voice characteristics and the corresponding motor-control parameters are associated with each other by using a self-ornanizing neural network. After the learning, the neural network is connected in series into the vocal tract model. By inputting sound parameters of desired sounds to the NN, the corresponding form of the vocal tract is obtained to vocalize desired sounds. The robot is applied to the training system of speech articulation for the auditory impaired people, because the robot is able to reproduce their vocalization and to teach how they are improved to generate clear speech. The paper briefly introduces the mechanical construction of the robot and how it autonomously acquires the vocalization skill in the auditory feedback learning by listening to human speech. Then the training system is described, together with the evaluation of the speech training by auditory impaired people.
- 社団法人電子情報通信学会の論文
- 2007-05-17
著者
関連論文
- 触覚呈示研究を通して見えた触覚の難しさと将来性(平成21年度論文賞の受賞論文紹介)
- 糸状形状記憶合金の振動を利用した高次知覚生起による触覚呈示(ヒューマンインタフェース基礎,インタラクションの理解とデザイン)
- 触覚呈示デバイスを用いたなぞり感覚の呈示
- 触覚呈示デバイスを用いたなぞり感覚の呈示(コミュニケーション支援及び一般)
- 声道モデルの機械系による実現とその計算機制御
- 触覚呈示デバイスを用いたなぞり感覚の呈示(コミュニケーション支援及び一般)
- 触覚呈示研究を通して見えた触覚の難しさと将来性
- 形状記憶合金糸を用いた触覚ディスプレイと微小振動の発生確率密度制御による触覚感覚の呈示
- 触覚の高次知覚を利用した振動刺激による触覚呈示
- 2A1-G7 声道物理モデルの聴覚フィードバックによる音響生成(26. Computational Intelligence)
- 握力インタフェースを用いた仮想楽器-GraspMIDI-の試作
- ハンドジェスチャ入力デバイスによる音響生成
- 運動特徴と形状特徴に基づいたジェスチャー認識と手話認識への応用(次世代ヒューマンインタフェース・インタラクション)
- 食道発声・脳性麻庫患者音声の明瞭化フィルタリングとDSPへの実装(福祉とコミュニケーション)
- 発話ロボットの発話動作獲得と歌声の生成
- スペクトル包絡と調波構造の強調処理による食道発声音声の実時間明瞭化
- 櫛形フィルタによる食道発声音声の実時間明瞭化フィルタリング(福祉情報工学と画像処理、一般)
- 発話ロボットを用いた聴覚障碍者のための発話訓練
- 発話ロボットを用いた聴覚障碍者のための発話訓練(コミュニケーション支援及び一般)
- 発話ロボットを用いた聴覚障碍者のための発話訓練(コミュニケーション支援及び一般)
- 聴覚フィードバックによる発話ロボットの声真似動作の生成(分析、生成と評価)(音声とコミュニケーション及び一般)
- 聴覚フィードバックによる発話ロボットの声真似動作の生成
- 視触覚の同時刺激によるテクスチャ感覚呈示システムの構築とその評価
- Dual-SOMの位相構造学習に基づく発話ロボットの自律的音声獲得
- 2000-MUS-36-3 声道物理モデルによる音響生成
- 音楽演奏における人間と機械の協調動作について
- 微小振動子アレイによる触覚呈示とテクスチャ感覚の評価
- 雑音環境下における音声インタフェース構築のための特定話者のセンシング
- 雑音環境下における特定音響のセンシング
- 人工音声〜声道物理モデルの聴覚フィードバック制御に基づく音声生成(『からだ』と『カラダ』)
- 顔インタフェース構築のための視線・顔部品認識(福祉とコミュニケーション)
- 次世代型生産・流通システムの構築に向けて : 人間中心の感性生産システムへの一提案
- 高齢者・障碍者支援のための画像処理技術
- 力覚および視線により操作可能なモニタデバイスの開発
- マルチモーダル手話データベースとジェスチャを入力としたデータ検索
- 点字楽譜学習支援システム
- 音符のポテンシャルを考慮した楽譜自動作成システム
- マルチモーダル手話データベースと手話認識への応用
- 加速度センサを用いたHMMによるジェスチャー認識
- 2P1-I07 力覚操作可能なモニタによるジェスチャ認識
- インタラクション'99報告
- 仮想共鳴管形成による音響の音色変換
- 計算機制御された力学系による歌声生成の基礎研究
- 加速度センサを用いたジェスチャー認識と音楽制御への応用
- 加速度センサを用いた手振り解析と実時間サウンド制御