手話のキーボード入力は可能か

2010-05-27 - すまう記id:killhiguchiさんから頂いた「聴覚障害者は日本語を使えるのが前提とされているのでしょうか」というコメントに、うーんそうだなーと思いました。というわけで、考えたことを少し。
聴覚障害者も日本人なのだから日本語を使えるのが当たり前だと思う人が多いかもしれないが、聞こえなければ音声言語を自然に身につけることはできない。
日本のろう者の多くは教育によって書記日本語を(人によっては音声日本語も!)操れるようになるが、本来彼らにとって母語となりうるのは視覚言語たる手話である。*1
FAXや電子メール、携帯電話の普及は、聴覚障害者にとって福音となったが、そこでのやりとりは日本語が中心となる。テレビ電話など動画のやりとりができるツールでは手話のおしゃべりができるが、人が実際に動作をしなくても、たとえばキーボード入力によって手話を送受信することはできないだろうか。
手話の書記法は研究レベルでは既にあるはずだが、その内容や普及度については調べたことがなく知らないので(おーい)、とりあえず手ぶらで考えてみよう。
手話の文法要素には手形とその動きだけでなく指さし・うなずき・口形・眉の上げ下げや視線の向きまでも含まれる。これらの要素をキーボードに割り振るという方法が一つ考えられる。
問題は、手話話者がどの程度こうした手話の文法要素について自覚的かという点だ。もしかしたらそれは我々が日本語を発音記号で記せと言われているようなものなのかもしれない。もっとも、ローマ字入力では近いことをやっているような気もするが…。
ともあれ、このような方法が可能であれば、日本語を全く知らなくても自分が表したい手話をキーボードから入力できるはずである。
出力については、入力した文法要素を3DCGのアバターに反映させればよく、これは今の技術でも可能だと思う。実際、ニコニコ動画には初音ミクが手話を話すCGが上がっていたりする。再生スピードも受信者側で調整できるようにしておくとなお良い。
手話メールができれば、ろう者は寝起きにパジャマ姿でも気にすることなく自分の母語で発信ができるようになる。どこかの会社で開発しないだろうか。

*1:母語が日本語である難聴者や中途失聴者はまた別。聴覚障害は言語ひとつとっても多様である。