![]() |
人間同士のコミュニケーションにおいて,音声による表現だけでなくジェスチャー
を加えて表現することによって,より深く,正確に相互理解を深めている.なぜなら
ジェスチゃーには,身体状態の外見を表しているだけでなく,人間の意思や感情など
の内面的な情報を多く含んでいることがあるからである.
また近年では,人間とコンピュータが対話する場面も増えてきている.また,コン
ピュータと対話するためには入力インタフェースとしてキーボード,マウスなどがあ
げられるが,まだそれらを扱いきれない人もたくさんいる.このことから,より柔軟
性の高い高度なインターフェースが求められてきているが,その一つの対策として最
近では音声認識により音声による入力が用いられるようになってきている.しかし音
声のみでは正確性に欠けるところがあるため,人間同士のコミュニケーションと同じ
く,その音声とともにジェスチャーによる個人の特徴をコンピュータが認識できるよ
うになれば,より正確に,人間同士が行なうコミュニケーションと同様のコミュニケー
ションを人とコンピュータ間でできるようになる.このような理由から,コンピュー
タによるジェスチャー認識は重要であると考えられる.
現在, 日本には約36 万人の聾者がいると言われている. 彼らの対話手段の1 つとし て手話が挙げられるが, 聴者の中で手話を使える人は少なく, 双方の対話に隔たりがで きてしまう. このようなときに, コンピュータを介することによって相互の対話を支援 する目的から, 手話認識システムに関する研究を行っている.
個人認識技術では, これまでに, 声, 顔, 指紋, 網膜, 筆跡などのバイオメトリック情 報と呼ばれる人間のもつ個人特有の情報を利用した個人認識の研究が行なわれてきた. しかし, 単一特徴のみを用いての認識では結果が不安定になる. 音声などの聴覚情報の みを用いた場合, 周囲の様々な雑音により認識率が低下し, また, 顔画像などの聴覚情 報のみを用いた場合は, 照明などの撮影環境による明るさや位置のずれなどが認識率に 影響する. このような問題の対処として,聴覚情報に視覚情報を加えたバイモーダル 情報を用いた個人認識の研究を行っている.