<クリスマスイブの日の授業から>
――EyeMoTボックス・EyeMoTボックスアプリの活用を通して――
nozomiハッピークリスマス
 
 
今年の11月の日本特殊教育学会の自主シンポジウム「知的障害と肢体不自由のある子どもに視線入力は有効か」に参加し、私は、あらためて視線入力のことを原点に立ち返り考えようと思いました。全国各地のシンポジウムに参加された方の中にも同じような思いを持たれた方がいるのではないかと思います。

 私は、障がいの重いお子さん、大人の方にかかわっていて、知的障害の有無にかかわらず、その方のことをもっと知りたいと思ったときに、視線入力装置や視線入力関係のアプリが有効に活用できることが多くあると考えています。

 今年は、私が視線入力でできるようにならないかと夢に思い描いていた、玩具や機器を動かすアプリ(EyeMoTボックスアプリ)と支援機器(EyeMoTボックス)が島根大学の伊藤史人さんの研究チームで開発されました。この場をお借りして、感謝申し上げます。

画像2

 上の写真
は、12月24日のEyeMoTボックスアプリの望さんの視線の履歴です。
 見事に授業日がクリスマスイブの日に当たったので、この日の内容は、クリスマス特集にしてみました。

スクリーンショット (198)

 授業では、上の写真の3枚のボタンの楽器をクリスマスソングに合わせて視線で鳴らしてもらおうと用意しました。

 上の視線の履歴を取った時に望さんの見ていたのは、iPadからHDMIケーブルでモニターにつないで映したYouTubeのクリスマスにちなんだ動画3つです。

 感染防止対策もあり、今年度の授業では、絵本の読み聞かせ等の代わりに動画を21.5インチのモニターで見てもらっています。今回は、山下達郎の「クリスマスイブ」back numberの「クリスマスソング」そして、ジョン・レノンの「ハッピー・クリスマス」の動画を用意しました。
 動画は、EyeMoTボックスアプリを起動した状態で見てもらいました。
(アイトラッカーをノートPCに接続し、モニターに設置しています)

 その時の上の写真の視線の履歴を見て、こんなに集中して見ているんだと驚きました。ど真ん中をよく見ています。(正確にはやや左側でしょうか)真ん中のボタンを見ていた時間も距離も、左右のボタンの4~5倍以上あります。
(視線の履歴は2番目のback numberの動画の中の114秒分になります。そのうち画面の3つのボタンの上に視線が載っていたのは、81.9秒で約72%の時間になります。このボタンは任意の設定で本人には見えていません。)

 左右の積算ピクセル数(視線の移動距離)を見ると大きな違いは見られないのですが、左側が12.7秒、右側が5.5秒で見ていた時間の差は大きいです。ヒートマップを見ても分かるように、左側は注視しやすく、右側は視線が流れやすいことが読み取れます。視線が速く流れてしまうので、積算ピクセル数が多くなり、移動距離に対して見ている時間が短くなっています。
 望さんは、頭が左に倒れがちなので、左側は見やすく、右側を集中して見るのにハンディがあることが分かります。
         *姿勢や首の角度の修正である程度は解決できます。

 
 望さんの動画を見ている時の様子について、視線の履歴をとったのは今回が初めてです。それもEyeMoTボックスアプリのおかげで、今までなんとなく気が付いていたことを定量化することもできました。

 動画を見ている時の様子を下記よりご覧ください。

 今回、分かったことを今後に生かして行ければと思います。姿勢の面や見る対象の提示の仕方にも工夫が必要ということが分かりました。たとえば、2枚のカードや物を左右に並べたら、左の方が選びやすくなる可能性があるので、視線で選択するより1つずつ見てもらい確認した方がいいかもしれません。

*EyeMoTボックスアプリのボタンの設定は、カスタマイズすることができます。動画を見ている時の視線の動きを見る時には写真も絵もない空白のボタンでかまいません。ボタンの枚数、位置、大きさもカスタマイズすることができます。

*今回は、動画視聴の後に楽器演奏をするための準備をした状態でスタートしています。そのため、真ん中のキーボードは鳴らないようにしていますが、右側のウインドウチャイムや左側の鈴は、視線がボタンにマウスオーバーで載った時にアプリと連動して鳴っています。

 次回は、実際にEyeMoTボックスアプリを使った視線による演奏の様子について書いてみたいと思います。(相澤純一)