鼻子音の識別
スポンサーリンク
概要
- 論文の詳細を見る
A method of recognizing /m/ and /n/ of monosyllables and words in real time is reported. The method consists of three parts; segmentation of nasal consonants, recognition of the following vowel, and discrimination between /m/ and /n/ according to the result of vowel recognition. In order to extract the nasal part, /e, a, o, u, w/ are excluded from nasals by comparing the output of 300 c/s LPF with that of 500〜1600 c/s BPF, and /i, j/ are excluded by comparing 500〜1600 c/s with 2800〜5000 c/s. Voiceless stops are easily omitted by comparing the output of 300 c/s LPF with that of 700 c/s HPF, and this circuit is also used for excluding vowels. In order to exclude the beginning and end part of /u/ more certainly, the output wave form of 400〜1000 c/s BPF is used. The parts in which the envelope of that wave varies rapidly are excluded from the nasal part. For excluding voiced stops, fricatives, and flappeds, fundamental frquency components are extracted from filtering output of 400〜1000 c/s BPF and the parts in which the fundamental frequency components exist continuously are considered to be likely nasal. The low intensity parts of original speech waves are considered to be non-nasal parts. The segment which satisfies above six conditions is decided to be nasal consonant after leaving out 12 msec of the continuum. According to this method the initial part of the nasal consonant is often missed but the boundary between the nasal consonant and the following vowel is pointed out exactly. Concerning about the discrimination between /m/ and /n/, the components of two specific frequencies are compared just before the boundary between the nasal consonant and the following vowel for distinguishing /mi/ and /me/ from /ni/ and /ne/ respectively. For the nasals followed by /a, o, u/, F_2 loci are used directly. Though /me/ and /ne/ in words are not discriminated satisfactorily by the method due to the individual variations, the others are recognized correctly over 80% for 180 samples of three male speakers.
- 社団法人日本音響学会の論文
- 1965-09-30
著者
関連論文
- 感情表現の分析と合成規則
- 計算機間結合用ハードウェアの開発
- 山梨大学における情報処理基礎教育の歴史と現状
- 心身障害児のためのマイクロコンピュータによるバイオフィードバックシステム : -Co-Workシステムについて-
- 重度心身障害児における初期学習のためのバイオフィードバックシステムについて
- システムへの要求と機能分析 : 入試機械化に即して
- ピッチ周期の不規則変動の特性と個人性の識別の試み
- 規則合成における様々な声質の実現の試みについて
- 声道模擬型規則合成における音源の改善について
- 物語理解におけるエピソード・ネットワークの構築
- 感性情報による小型モータの評価システム
- 指向性パターンを用いたEMIノイズ自動解析法
- D105 マイコンを使った簡易型母音発音練習装置
- G-5 マイクロコンピュータによる言語障害児の発話練習用システムの開発
- 調音機構のモデル化に関するシンポジウム
- 声道の合成による音声の識別
- 破裂音の声道断面積の移行について
- 破裂音の声道断面積について
- 鼻子音の分離について
- 鼻子音の識別
- 日本語音声の零交叉波時系列 : II.無声子音
- 日本語音声の零交叉波時系列 : I.測定方法および母音
- 加速度切換え制御を用いたF_0パタン生成過程モデルの導出
- フォートラン・プログラムの音声認識システム
- 声道模擬による女性音声合成
- B-28 声道の側面図とF1-F2 Diagramとによる聴覚障害児用発音練習システム
- グラフを利用して誤りを含む記号列を分類する方法とその音声認識への応用
- 80 声道の側面図による聴覚障害児用発声訓練システム
- 日本語文章の音声認識システム
- 音声認識システムにおける単語辞書について
- 単語音声の音素系列による表現
- 声道模擬による音声の合成について
- 調音器官の動特性の推定とシミュレーション
- 声道の観測による声道側面図の音響量への変換法について
- 漢字入出力の一手法
- スタック模型型FORTRAN処理系の設計