視線入力と手話の支援技術とそれら関連研究の紹介

これはWeb Accessibility Advent Calendar 2016の13日目のエントリーです。どうでもいいのですが、このブログ自体が一年ぶりの更新です。

下記がこれまでのWeb Accessibility Advent Calendarで書いたエントリーです。

昨年も13日目、一昨年も13日目、今年も13日目にエントリーしました。13日目を勝手に固定枠にしようと目論でいます。

それはさておきWeb Accessibility Advent Calendarですが、今回はアクセシビリティには関係しますが、Webにはあまり関係のないことを書きます。

支援技術だとスクリーンリーダーをはじめに思い浮かぶのではないかと思いますが、アクセシビリティ関連のセミナー等でも紹介があるように、テキストブラウザや点字に変換するものなどが挙げられることが多いです。
最近、アクセシビリティ関係のセミナーなどに参加していないので、どういったものが最近は紹介されているかは知りませんが、Webだけに特化されているわけではないので、当然と言えば当然なのですが視線入力、手話関連の支援技術については、さほど触れられていない印象を受けます

そのため、いい機会(謎)なので、紹介だけになりますが、それらについて書こうと思います。

視線入力

スクリーンキーボード・ソフト「OptiKey」

目の動きを解析して文字入力などの操作ができます。

Windowsのみの対応、かつ海外のみという限定となりますが、こういうのがオープンソースで公開されているのは、応用研究として発展していく可能性があります。

この「OptiKey」の特徴は、よく使う単語をサジェスト機能のようなもので表示することで、より入力を早くできるようにしているという点です。

こういうのを機械学習と組みわせることで自分がよく使う言葉を覚えさえていくことでより素早い操作ができるようになりそうな気がします。

また、「HeartyLadder[PDF]」も視線入力をサポートしたようです。今後、視線入力のデバイスが増えていくと、特にマウスやキーボード操作が難しい人にとっては、非常に便利になっていくのではないかと思います。

こういうのは、基本的に日本語に対応していないので、今後のマルチ言語化に期待です。

他にも「視線入力」のキーワードでGoogle Scholarで検索するとたくさん出てきます。こういうのが実用化されることを期待しています。

手話

SignAloud

ワシントン大学の学生が開発した手話を翻訳して音声にするというグローブです。

手話を解析して音声にするというのを実現したその技術力に非常に感服しました。

これが実用化、もしくは、応用することによって、すぐには思いつきませんがいろんな施設や場所で活用できるのではないかと思います。

手話を解析して音声化、テキスト化できるデバイス

このデバイスに関しては、「手話を音声化するソフトウェアが開発中、聴覚障がい者の会話をサポート」という記事を読んで知りました。

専用のデバイスとなりますが、手話を解析してコミュニケーションを取ることを可能とします。

詳しくは下記のサイトに載っています(英語ですけど)

また、自分をご指導くださった教授の研究でもあるのですが、入力された文字を手話アニメーションに変換する研究もあります。

Java3Dを使用したWeb対応手話アニメーションシステムの改良

手話に関しては、これらを組み合わせることで非常に強力なシステムができあがる可能性は十分に秘めているのではないかと感じます。

しかし、手話の場合、多言語に関する研究の論文を見たことがないので(探せていないだけなのかもしれませんが)、上記のようなものを仮に日本の手話に対応するにあたっては、それようにほぼ新規に開発しなければいけないのかなぁと思うと、手話に関する目立ったシステムがでてこないのが、なんとなく分かるような気がします。

おわりに

単なる紹介だけでしたが、紹介したものは「技術によって生活が豊かにしたい」「社会の格差をなくしたい」という技術者たちの熱い想いから実現してきたことだと思います。また、その熱い想いにうたれて出資を決断してくれた出資者たちのおかげだと思います。こういった成果がその対象の人だけではなく、いづれ自分たちにも恩恵を受けることになるかもしれません。

ほんとうのおわりに

Webじゃないアクセシビリティ Advent Calendar 2016があることを全く知りませんでした。というか今回はこっちじゃないか説が濃厚なのですが何年も書いているので大目にみてください(謎)。