ヒューマノイドにおける聴覚機能の課題とアクティブオーディションによる音源定位
スポンサーリンク
概要
- 論文の詳細を見る
ロボットが実環境で周囲の状況を理解するためには,知覚の対象へ体を向けるなど能動的な知覚(active pcrccotion)が必要である.能動的な知覚は,視覚では,アクティブビジョンとして盛んに研究されているものの,聴覚では,自分自身が発生するノイズの影響から,いったん停止して聞く"stop-perceive・act"原理に基づくアプローチが多く,聴覚と動作を統合し知覚を向上するような研究はあまり行われてこなかった.また,ロボットの聴覚を実現するための体系だった課題の整理もされていなかった.そこで,本稿では,まず,動作時のノイズ問題に加え,未知環境における音の知覚,混合音などの一般的な音の理解,聴覚や視覚などのセンサ情報の曖昧性を解消するためのセンサフュージョンといった,ロボット聴覚を実現するための課題を整理する.そして,動作中でも音を聞き分けるための手法としてさまざまなマイクロフオンパラメータを能動的に制御し聴覚を向上させる"アクティプオーディション"(active audition)を提案する.ただし,本稿で扱うアクティブオーディションは,ソナーなど情報獲得のために自らエネルギーを出すセンサを使用したアクティブセンシングとは区別し,通常のマイクロフォンなどパッシブなセンサを扱うものとした.さらに,本稿では,動作時のノイズ問題を解説し,実環境での音源定位を実現するため,ロボットの内部と外部を隔てるような外装を利用した内部音抑制,および,エビポーラ幾何を利用して2本のマイクロホンで事前測定を必要としない音源定位法を提案する.実際に,ステレオカメラとマイクロフォンを備えた4自由度の上半身のヒューマノイドロボットSIGにアクティブオーディションシステムを実装することにより,動作中であっても,反響のある部屋で,複数音源をロバストに定位可能なシステムを構築することができた.
- 2003-03-01