ただ視線入力への想いを述べただけのエントリー

これはWebじゃないアクセシビリティ Advent Calendar 2016の23日目のエントリーです。

Web Accessibility Advent Calendar 2016のほうで 視線入力と手話の支援技術とそれら関連研究の紹介というエントリーを書いたのですが、支援技術の中でより伸びてほしいと思っているのが視線入力です。

Webな人たちは、支援技術というと音声ブラウザやスクリーンリーダーなど音声読み上げのほうを思い浮かべがちです。視覚から得る情報量の割合は80%以上と言われていますので、Webだと画面を見ることになるので目が不自由だと情報を得ることができないと考えます。その代わりに耳から得るために音声で読み上げてちゃんと情報を伝えるように作ります。

しかし、目は見えるけど体が不自由な人の場合でどうでしょう。マウスが使えない、キーボードが使えない、という人もいます。

目的のリンクをクリックするのに、Tabキーを何回も押さなければならない、など起こったりします。その人たちにとって視線入力というのは非常に有効な方法と言えます。

Web Accessibility Advent Calendar 2016のほうのエントリーで書いた「OptiKey」は、現在は海外のみ、Windowsのみの対応ですが、オープンソースで公開されているので、今後の成長に期待ができます。

OptiKey

また、視線入力ができる専用のモバイルデバイスもあるようです。

こういうのが、iPhoneやAndroid端末にも標準的に対応できるようになるとより豊かになるのではないかと思います。

Senseye - Eye control for mobile devices

脳波入力

視線入力は徐々に発展していっていると思うのですが、次にくるのが脳波入力でしょうか。 「脳波でキーボード打つ」世界初の成功という記事があるので、この分野の研究は進んでいると思います。

おわりに

タイトルにあるように、ただ視線入力への想いを述べただけのエントリーとなりました。そこまで想いを述べているのかどうかも微妙ですが、こういう開発されたものが今後より実用化されていくことを期待するだけです。