1A2-N07 簡素な音声言語と触れ合いで指示が可能なロボット(コミュニケーション・ロボット)
スポンサーリンク
概要
- 論文の詳細を見る
This paper demonstrates a prototype test bed for usability studies of a multi-modal language for directing robots, using a Sony AIBO and JULIAN, a grammar-based speech recognition engine. We developed a grammar for spoken commands based on Japanese in order to simplify command understanding and an event-driven system to interpret multi-modal directions. In our pilot studies, we confirmed our robot can properly react to spoken, non-verbal and multi-modal directions by humans. Results from recent experiments involving subjects unfamiliar with robots are also reported and discussed.
- 2007-05-11
著者
関連論文
- ユニバーサルマルチメディアアクセスのためのユーザインタフェースデザイン
- ユニバーサルマルチメディアアクセスを実現するためのスイッチング機能(セッション9:アプリケーション(2))
- 大学学部情報系学科におけるロボットシミュレータを用いた教育
- 1P1-G07 音声とボタンを組み合わせた命令言語によるヒューマノイドの遠隔操作(コミュニケーション・ロボット)
- 1P1-G06 マルチモーダル命令言語RUNAによる小型ヒューマノイドの操作(コミュニケーション・ロボット)
- 1A2-N07 簡素な音声言語と触れ合いで指示が可能なロボット(コミュニケーション・ロボット)
- 1A1-D02 ヒューマノイドの腰と太腿を用いた多方向へのボールキックの実現(ヒューマノイド)
- 1A1-D01 全身行動研究用小型ヒューマノイドSYOKABEの開発(ヒューマノイド)