杉山先生へ-クレアクトでの視線入力装置レポート 白井暁彦

杉山先生へ クレアクトでの視線入力装置レポート 2022/3/25

杉山先生お疲れ様です白井です。今日はクレアクトさんに来て視線入力を試してきました。このレポートは Google Docs の音声入力だけで入力しています。校正は鈴木さんに任せますが、修正した場所は鈴木さんが提案モードで入れてくれるので、もともとの入力がそのまま入っています。ここの環境は五反田駅前のジョナサンです。周りはめちゃめちゃうるさいです。

 さて、本日試したのは3種類の視線入力機器です。まずは、一番期待していた「TDパイロット」という、まだ日本で認可が進んでいる最中の最新機種です。これはおそらく杉山先生が一番好きだと思います。 iPad に完全に統合されたコミュニケーション用の機器では、例えば車椅子に装着して、視線入力して車椅子を外から見てる人機器の裏側から「ハロー」とか「そこどいて」等といった文字を見ることができますし、もちろん音声も出ます。

 アプリとしては、文字を選んでキーボードで文字を入力して表示するという機能が基本ですが、 iOS のアクセシビリティと深く統合されているので、 iOS の UX で使うアプリもそのまま使えます。なので、TDパイロットは先生のやりたいことにかなり近いんじゃないかなと思います。問題は、iOSの「アクセシビリティ」に慣れてない私たちからすると、意外とタッチパネルの UI を視線だけでやるのは難しいなという認識です。絶対不可能というほどではないですが、具体的にはフリックがワンアクションで出来ません。これは iOS のアクセシビリティのショートカットをカスタマイズすることで使いやすくなると思います。しかし、まだちょっとまだるっこしいと思います。  それから視線入力だと不得意な環境があります。例えば、「利き目が右か左か」や、「画面の下の方が見づらい」ということです。iOS だと、画面の下にアプリの起動アイコンが並んでいるので、ターゲットのサイズを大きくしたり、並べ方をわかりやすくするなど、事前に調整しておかないと難しいと思いました。一番期待していたこの TD パイロットは、国内で認可されるまであと1年半ぐらいかかるそうです。

 続いて Windows 側で動いている組み込み機器「マイトビーI-16」です。文字の入力に特化し、寝たきりの方がベッドの上で文字入力をして音声に変換する装置ですが、こちらはかなりよく出来ていました。三つの機器を見た中では、私は一番プロダクティブな製品だと思っています。何故かと言うと、入力方法には「あいうえお」「あかさたな」を選ぶ入力方法や、完全に五十音をマトリックスで打つ入力方法などの複数から選択でき、1秒に1文字という速度でも確実に文字を打つことができます。この入力ソフトは、日本のソフトウェア会社が作ってるのではなく、スウェーデンのトビー本社が作ったものを全世界で使えるような形でカスタマイズされているそうです。ただ、日本のユーザーでも全く問題がないような作りになっていました。これの良いところは、症状の進行度に合わせて入力方法を選ぶことができ、少なくとも文字を打ちたいという要望には応えられることです。

 最後に一番安価な機器である「TCスキャン」(40万円ぐらい)視線入力デバイスをパソコンに後付したものですが、これはやはぎさんや私等の知識がある人間から見れば、ゲーマー用の視線入力機器として4万円ほどで入手可能な「Tobii Eyetracker 4C」にスイッチ入力用のハードウェアと、ちょっとしたソフトウェアがついてるという構成のように思いました。これは学長の現在のご体調でも一度触って遊んでいただければいいと思います。安い分、個々のディサビリティに合わせたカスタマイズはしやすいように思いますが、この機器の良いところと悪いところは、やはりPC周辺機器として設計されたハードウェアであることです。何か不具合があった時などはアプリケーションを落とさなければならないということが結構ストレスに感じるのではないかと思います。したがって、この機器から視線入力デバイスの使用をスタートすると、「俺これ使いたくないな」という感想になる可能性は高いと思います。つまり、 Windows が嫌いな人だったら視線入力自体が嫌いになるかもという感想です。ただ一方で、やってみて一番良かったのは、子供向けのお絵かきソフトや、花やシャボン玉を視線で追うゲームで、このようなゲームで最初に遊んでおくと、入力しづらい場所があること、キャリブレーションが大事であることや、アプリの起動はできるが文字の入力難しいといった慣れや諦めが体験できればいいと思いました。

 私自身を振り返ると、ちょうど二人目の子供が産まれて、完全に育児に打ち込んだ時期があったのですが、その時に、「どうして自分はインターフェースの研究者なのに両手が赤ん坊に塞がれてたとしても今なんかある論文書いたりプログラム書いたりできるようになってなかったんだ」みたいなことを考えていたことを思い出します。

 実際、例えば USBフットスイッチは最近だと5千円も出すと結構いいのが買えますし、 YouTube の配信者はそれで OBS を操作していたりします。後は、 Bluetooth のジョイスティックを使って片手で操作する VR 用のデバイスで、これも2~4,000円ぐらいで買えますが、 iPad とか iOS とかにリンクして「このショートカットキーはここ」「 X キーはこれ」のような形で割り当てるような使い方もできます。数千円のガジェットでもちゃんと設定しておけば、例えば赤ん坊を抱っこしながらでも、何か文字を打つ以外の部分はできるようになると思います。実際の文字を打つのは、音声入力で行うことができます。現在では、Google Docs や、 Windows の Office 365の同じような機能もありますし、 Siri や Android の「音声文字変換」という機能がたいへんよくできているので、意外とその環境をそれぞれ触っていると、どんな環境でも上手くいく操作や入力ができるかと思います。

 最後に業務関係ですが、私自身も最近はSlackとFacebook メッセンジャー、 Google ドライブのGoogle Docs、 Google Slidsなどで作業をしています。もちろんプログラムコードを書いたりもしますが、例えばオフィスの仕事みたいなもので考えると、フォーム等を使ってディシジョンメイキングを定型フォーマットにしていくというのが有効かと思います。

 また、印鑑を押すか押さないか、判断を頂く案件があると思いますが、 PDF の資料を添付してもらうより、タイトル、概要、予算等があって、それが承認か、もう1回説明が必要かというフローが決まっていれば十分成立するのかなと思います。逆に言うと、このフローやフォーマットに変えていくことが大変だとすると、その文化やフローを見直すのが大事な気がします。決定事項として、例えば「俺はハンコを押さないよ」っという際に「却下」なのか、「話は聞くよ」なのか、「今はその時期じゃない」なのか、エモートレベルで「また来てほしい」なのか、そのようなコミュニケーションが成立するなら、その伺いの仕方が一番いい気がします。そのようなわけで、オートメーションというほど自動化はしないが、ディシジョンとしては気持ちをちゃんと組めるような仕組みがあり、 Google フォームで済むか、もしくはそのための専用アプリを作りましょうという方向性でもいいと思っています。周りの人たちから情報をそういう形で整理していこうみたいな動きができるといいなとも思います。

 色々差し込んだ話もしましたが杉山先生とご家族とニコニコした世界をまた楽しめれば良いと思っています。では現場より失礼致します。

top
<< #DHGSMMEL22 「超メタバース・エンタテイメント・ラボ」
#MMEL22 2022年度ラボプロジェクト「超メタバース・エンタテイメント・ラボ」 >>