カテゴリ: 視線入力への挑戦

Sくんの視線入力の取り組みの足跡
―あきらめることなくトライし続けたSくんの強い気持ちー
 私が、Sくんのご家庭に訪問し、視線入力とスイッチ操作についてのお手伝いを始めたのは、2019年2月のことでした。Sくんは、当時4歳でした。
 ご両親はマジカルトイボックスのイベントに足を運ばれたり、訪問されているPTさんから情報を得たりして、ICT救助隊のスイッチインターフェイスや国分寺おもちゃ病院のスイッチを入手されていて、iPadのスイッチ操作に対応しているアプリをすでに試されていました。研究熱心で、私のほうがスイッチに対応しているアプリを教えてもらうこともあります。
 月1回の訪問時には、はじめにiPadをスイッチで操作する活動をして、その後、視線入力に取り組みました。ここでは、視線入力に絞って簡単に足跡をまとめていきます。

Sくんの3つのハンディ
 視線入力を行う上で、Sくんの目は開きが狭く、加えて瞳孔にまつ毛がかかっている状態で、さらに眼振という3つのハンディがありました。センサーが瞳孔をとらえきれず、GazeTrace(画面上の見ているところをバブルと呼んでいる円が示してくれる)が出たり消えたりして安定せず、画面にバブルが出ても激しく揺れていて、安定した視線入力はできない状態でした。
 そのため、はじめの数か月は、下の写真のようにお母さんに瞼を持ち上げてもらって目を開き視線入力に取り組んでいました。
DSCN1944


Sくんの意欲が視線入力の成功体験につながる
 はじめに取り組んだのは、島根大学の伊藤史人さんの研究グループで開発されたEyeMoT2Dでした。
 Sくんは、上記のようなハンディがあるので、射的をやっても、スクラッチをやっても成功(クリア)するまでものすごく時間がかかっていました。でも、Sくんは、視線でできる活動に興味があり、最後まであきらめない気持ちも持っていました。
 時間がかかっても、失敗を繰り返しても、最後まで投げ出さずやりきろうとしていました。
IMG_2169
<2019年2月15日  SCORE:132秒>

DSCN1958
<2019年4月5日  SCORE:180秒>


Sくんの視線入力を成功させるもう1つの鍵は位置設定だった
 Sくんが視線入力に継続して取り組めてきた1つの鍵は、Sくんのあきらめない気持ちでしたが、もう1つ、鍵を握っているものがありました。それが視線入力装置(アイトラッカー)をつけたモニターの位置設定でした。
 視線入力に取り組み始めたときは、仰臥位でモニターを顔の真上に設置していました。ただ、この姿勢は普段の姿勢ではなく、体に負担のかかる姿勢だったので、側臥位の姿勢で取り組むように変えていきました。
 側臥位も初めは、90度真横を向いていたのですが、この姿勢に合わせるとモニターの左側がベッドの面より下になってしまいます。そして、ベッドの面に近い左目をセンサーが捉えにくく、なかなか位置設定が定まりませんでした。
DSCN2616
<2019年7月>

 次に、下の写真のように、負担がかからないように気をつけながら、枕で首の角度を20度位上げてもらいました。しかし、後で写真を見て気が付いたのですが、この角度の場合、この状態よりモニターをもっと高く上げ、さらにモニターを斜めにして設置しないと視線とモニターが垂直になりません。写真のような位置関係ですと特に画面の右上を見ることが難しかったようです。重力に逆らって眼球を持ち上げていくのには、かなりのエネルギーを必要としていることがわかりました。

DSCN2782
<2019年8月>
 
 そして、下の写真は視線入力を始めてから1年半以上たった最近の位置設定です。
 首の角度をつけすぎないようにして、しかもベッドの面に近い目の視線が届きやすいように設置しています。眼球を重力に逆らって上の方に上げなければならないような無理な位置にはなっていないというのが確認できるかと思います。また、目の開き具合から画面を見上げる方向ではなくて、やや見下ろす方向にディスプレイを設置するほうが安定して視線をとらえられることが分かってきました。
 この写真は、センサリーアイFXの「色を塗る」に取り組んでいるところですが、画面全体に色を塗ることができていますし、色彩豊かに描けるようになってきています。

スクリーンショット (660)
< 2020年12月>

 下の写真は、EyeMoT3Dのひらがな表の「かるた」(12枚)の結果です。アプリが発表されてから訪問時には毎回取り組んできましたが、時間がかかっても必ず最後まで自力でやりきっています。
 身体全体の筋力の向上もあり、瞼が徐々に上がるようになり、目の開きも少しずつ広がっていき、眼振も少なくなってきています。その結果、センサーが視線を確実にとらえてくれるようになり、視線入力の効率が上がってきたことにより、本人の達成感も上がってきているように感じています。

スクリーンショット (659)
<2020年12月>

ストライクゾーンを見付けることの大切さ
 実は、Sくんの視線入力のストライクゾーンを見付けるのに、2年たった今も少し苦労しています。Sくんのストライクゾーンは、決して広くはありません。その日の体調によっても微妙に変わることもあります。でも、ストライクゾーンを見付けないまま始めてしまうと、Sくんに余計な努力を求めることになってしまいます。焦りは禁物です。目の開きは始めた当初よりかなり広くはなっていて、画面上の視線の揺れは確実に減ってきています。それでもまだ、視線マウスアプリ(GazePoint)の距離センサーも適正な距離にあるかどうか捉えられないので、実際に測ってみました。視線(瞳孔)は50㎝位だと捉えられず、60㎝にすると画面上にしっかり現れました。
 位置、距離、角度を模索しながら、ストライクゾーンを見付けることの大切さを感じています。

視線入力とスイッチの併用も可能になる
 Sくんは、視線入力を始める前からご家庭でスイッチの練習をしていました。サポートに入っている方の協力もあり、いろいろなスイッチを試していましたが、今でも使ってるのは100均のブックエンドです。このブックエンドの使用法について提案されたのは、療育のSTさんだそうです。ここに右腕を載せ安定させ、スイッチを右手のひとさし指と中指で押すスタイルは同じです。(つい最近、左手の親指での操作もお母さんと試しています)
 写真のスイッチは、マイクロスイッチを発砲スチロール素材に埋め込み、丸型のタッパーウエアの真ん中の部分を切り抜いてスイッチのレバー部分に貼ったものです。
DSCN2994

DSCN2995

スクリーンショット (661)
 上の写真は、アンドロイドのアプリをBlueStacksにダウンロードし、視線で目標を決め、スイッチを押して遊んでいるところです。視線入力は、それまで注視で決定する形で取り組んできましたが、同時に練習してきたスイッチを使うことで、左マウスのクリックを行うことができます。このことによって視線を動かしながらスイッチを押し続けることででドラッグ操作も可能になり、Sくんの楽しみが広がっています。

 *スイッチインターフェイスは、マジカルトイボックスで作ったREVIVE USB汎用スイッチインターフェイスを使用しています。視線マウスアプリとしては、miyasukuEyeConLT2またはGaze Pointを使用しています。

★Sくんの最近の活動の様子をYouTubeにアップしましたので、ご覧ください。

                            
                            (相澤純一)


好きな曲を聞きながら、楽器を視線で選び、演奏する

 -EyeMoTボックス・EyeMoTボックスアプリの活用を通して-

ブログ1
 私達の生活の中で、「音楽」は、とても大切なものの1つではないでしょうか。ベッドで過ごす時間の長い障がいの重い方にとって、私達以上に生活の中で「音楽」の持つ意味は大きいと感じています。

でも、自分で好きな曲を選んで聞くことはなかなか難しいことですし、ましてや自分で好きな楽器を選んで演奏するというのは、かなりハードルの高い活動だったと思います。

 

 私の授業の中でも、スイッチでいろいろな楽器を鳴らす活動はしてきましたが、視線入力の場合は、視線入力用のピアノやギターのアプリを使う活動に限定されていました。

 

 それが、今年、島根大学の伊藤史人さんの研究室で開発されたEyeMoTボックスとEyeMoTボックスアプリを活用することにより、視線入力でいろいろな楽器を演奏することが可能になりました。念願の支援機器とアプリの誕生です。

 

 スイッチでなくEyeMoTボックスアプリを使って視線入力で演奏するメリットは、複数の楽器の中から視線の移動だけで、楽器をすばやく選択しながら演奏することができることです。もちろん、1つの楽器にしぼって演奏するのもいいと思います。
 障がいの有無に関係なく、たくさんの人と一緒に合奏することも可能ですね。

 雅也さんと望さんの実際の演奏の一部をYouTubeで発表していますので、ご覧ください。二人とも演奏をとても楽しんでくれて、声もよく出ていました。

 
 EyeMoTボックスアプリの選択画面は、いくつか用意していますが、主に下の2つを使っています。右側の楽器と左側の楽器の選択に偏りがある場合は、片方が見にくいということがないか確認するために、入れ替えて試してみることもあります。


スクリーンショット (198)

スクリーンショット (199)
 
メインの楽器は、YAMAHAの電子キーボードSHS-500 にして、選択画面の真ん中に配置しています。いろいろな楽器の音が出せることやJAM機能があり、いろいろな曲のコード演奏ができるからです。
(この楽器は、訪問大学おおきなきの講師の熊谷修さんに紹介してもらいました。)

 

好きな曲は、iTunesで購入することよってiPadYAMAHAのアプリChord Trackerに取り込まれます。CDの曲の場合は、DropBoxで共有することによって取り込まれます。あとは、アプリがコードを自動解析してくれます。

 

楽器については、直接、電気で動く楽器を改造する場合と、シンプルテクノロジーで100均のハンドミキサーを改造して使ったり、ワリバッシャーを使ったりすることが考えられます。

 
 私は、下の写真のように、
ワリバッシャーは2つ用意して、ウインドウチャイムと電子キーボード(SHS500)を鳴らすのに利用しています。

ブログ2
 改造した楽器としては、パナソニックが1990年頃に発売した楽器でボンゴボンゴという電子ドラムを使っています。10年ぐらい前は、ヤフオクで3,0004,000円で購入できたのですが、今はレアになったのかメルカリやヤフオクで1万円位に値段が上がっています。今、使っているのはSY-DP318種類の音が楽しめるものです。

 

 鈴は、タワッチにくっつけて動かしています。タワッチはスイッチで相撲などをして楽しんでいました。駆動部は、私はダイソーの電動字消しを使っています。
(ちょっと脱線しますが、お時間のある方は、タワッチ相撲をお楽しみください。)



                       (相澤純一)


  <クリスマスイブの日の授業から>
――EyeMoTボックス・EyeMoTボックスアプリの活用を通して――
nozomiハッピークリスマス
 
 
今年の11月の日本特殊教育学会の自主シンポジウム「知的障害と肢体不自由のある子どもに視線入力は有効か」に参加し、私は、あらためて視線入力のことを原点に立ち返り考えようと思いました。全国各地のシンポジウムに参加された方の中にも同じような思いを持たれた方がいるのではないかと思います。

 私は、障がいの重いお子さん、大人の方にかかわっていて、知的障害の有無にかかわらず、その方のことをもっと知りたいと思ったときに、視線入力装置や視線入力関係のアプリが有効に活用できることが多くあると考えています。

 今年は、私が視線入力でできるようにならないかと夢に思い描いていた、玩具や機器を動かすアプリ(EyeMoTボックスアプリ)と支援機器(EyeMoTボックス)が島根大学の伊藤史人さんの研究チームで開発されました。この場をお借りして、感謝申し上げます。

画像2

 上の写真
は、12月24日のEyeMoTボックスアプリの望さんの視線の履歴です。
 見事に授業日がクリスマスイブの日に当たったので、この日の内容は、クリスマス特集にしてみました。

スクリーンショット (198)

 授業では、上の写真の3枚のボタンの楽器をクリスマスソングに合わせて視線で鳴らしてもらおうと用意しました。

 上の視線の履歴を取った時に望さんの見ていたのは、iPadからHDMIケーブルでモニターにつないで映したYouTubeのクリスマスにちなんだ動画3つです。

 感染防止対策もあり、今年度の授業では、絵本の読み聞かせ等の代わりに動画を21.5インチのモニターで見てもらっています。今回は、山下達郎の「クリスマスイブ」back numberの「クリスマスソング」そして、ジョン・レノンの「ハッピー・クリスマス」の動画を用意しました。
 動画は、EyeMoTボックスアプリを起動した状態で見てもらいました。
(アイトラッカーをノートPCに接続し、モニターに設置しています)

 その時の上の写真の視線の履歴を見て、こんなに集中して見ているんだと驚きました。ど真ん中をよく見ています。(正確にはやや左側でしょうか)真ん中のボタンを見ていた時間も距離も、左右のボタンの4~5倍以上あります。
(視線の履歴は2番目のback numberの動画の中の114秒分になります。そのうち画面の3つのボタンの上に視線が載っていたのは、81.9秒で約72%の時間になります。このボタンは任意の設定で本人には見えていません。)

 左右の積算ピクセル数(視線の移動距離)を見ると大きな違いは見られないのですが、左側が12.7秒、右側が5.5秒で見ていた時間の差は大きいです。ヒートマップを見ても分かるように、左側は注視しやすく、右側は視線が流れやすいことが読み取れます。視線が速く流れてしまうので、積算ピクセル数が多くなり、移動距離に対して見ている時間が短くなっています。
 望さんは、頭が左に倒れがちなので、左側は見やすく、右側を集中して見るのにハンディがあることが分かります。
         *姿勢や首の角度の修正である程度は解決できます。

 
 望さんの動画を見ている時の様子について、視線の履歴をとったのは今回が初めてです。それもEyeMoTボックスアプリのおかげで、今までなんとなく気が付いていたことを定量化することもできました。

 動画を見ている時の様子を下記よりご覧ください。

 今回、分かったことを今後に生かして行ければと思います。姿勢の面や見る対象の提示の仕方にも工夫が必要ということが分かりました。たとえば、2枚のカードや物を左右に並べたら、左の方が選びやすくなる可能性があるので、視線で選択するより1つずつ見てもらい確認した方がいいかもしれません。

*EyeMoTボックスアプリのボタンの設定は、カスタマイズすることができます。動画を見ている時の視線の動きを見る時には写真も絵もない空白のボタンでかまいません。ボタンの枚数、位置、大きさもカスタマイズすることができます。

*今回は、動画視聴の後に楽器演奏をするための準備をした状態でスタートしています。そのため、真ん中のキーボードは鳴らないようにしていますが、右側のウインドウチャイムや左側の鈴は、視線がボタンにマウスオーバーで載った時にアプリと連動して鳴っています。

 次回は、実際にEyeMoTボックスアプリを使った視線による演奏の様子について書いてみたいと思います。(相澤純一)


雅也さんが毎回やっているキャリブレーションの意味

<キャリブレーションとは?>
スクリーンショット (188)
 
 視線入力の取り組みを2016年3月から積み重ねてきた雅也さんですが、お母さんが毎回事前準備として丁寧に取り組んできたことに「キャリブレーション」があります。

 部屋の照明を落とし、画面の背景も黒にし、見る目標である刺激(ターゲット)も立体的な動画を自作されています。真剣勝負の環境調整をして本腰を入れて取り組まれています。

 「キャリブレーション」は、私も訪問した時に導入として1回は行っていますし、お母さんから、ご家庭でのデータを拝見するときに「何回目に成功しましたか?」と伺うことがあります。そうすると「今日は5回目です」「なかなか同じ刺激だと見なくなってしまうので、刺激を替えるようにしています」という話を伺います。

 基本に立ち戻ることになりますが、あらためてキャリブレーションについて考えてみたいと思います。

 キャリブレーションは、自分に合ったメガネを作るのと同じで、視線入力をするときに、パソコン(ディスプレイ)のその人が見たところがきちんと反応するように調整していく作業です。

<キャリブレーションは必須ではないがやってみる価値はある>
 でも、キャリブレーションは必須ではありません。
    障がいが重い方の場合は、キャリブレーションが取れなくても、支援者がキャリブレーションを行い、そのデータでやりたい活動は、文字入力等を除いてほぼできると思って差し支えありません。

 ただ、キャリブレーションをすることで、視線入力に取り組んでいる方の眼球運動の様子について見えてくることがあるだけでなく、繰り返し行っていくことでいいこともあるようです。

<視線入力に取り組んでいる方の眼球運動の様子が分かる>
 見ているところが分かるGazeTraceを表示することで、キャリブレーション時に画面に出てくるターゲット(刺激)に対して、どのような眼球運動をしているかを知ることができます。(Gaze Traceは、キャリブレーション時だけでなく、メインの活動の中でも邪魔にならなければ出しておくといいです。)

スクリーンショット (62)_LI

Tobii(PCEyeえくすぷろあや4Cの場合)のドライバーソフトのGaze Traceをクリックすると色が青く変わります。この時に画面の見ているところに動く円(写真の右側の赤い矢印のところ)が立ち現れます。バブルと呼ぶこともあります。

 繰り返し行っていくことでいいことは、キャリブレーション自体が眼球運動の練習になります。また、最近のテレビ番組で、次のようなことが紹介されていました。

 9月3日のNHKのまちかど情報室で脳科学者が紹介した「朝めし前の脳トレ」の1つが眼球運動でした。四角いものの真ん中を見て、それから眼球だけ4隅に動かすというまるでキャリブレーションのような動きが紹介されたそうです。集中力を高める効果があるそうです。(この情報は、ビジョン ジョイさんのFBで知ることができました。)
IMG_4636_2020090306063138b


<キャリブレーションもEyeMoTのように成功体験が大事>
 雅也さんが制度を使って購入した視線入力装置は、重度障害児者向けのTobii PCEyeえくすぷろあ(現在販売中止)です。


 えくすぷろあを使うための視線マウスアプリは、Gaze Pointでした。
 Gaze Point自体は、単体でインターネットから無料でダウンロードすることが可能で、Tobii Eye Tracker 4Cでも活用することが可能でした。

 Gaze Pointは、伊藤史人さん(島根大学)もYouTubeで紹介されていましたが、視線入力に取り組まれる方のキャリブレーションについて、最大限のカスタマイズができるように工夫されています。
  キャリブレーションタイプで、<正確>モードの3つの小さな青いドットがつぶれるまで注視するのが難しい方は、<簡単>モードを選びます。
スクリーンショット (59)

・背景色→15種類から選択可能
スクリーンショット (56)

・刺激→13種類から選択可能、さらに写真や動画等、自作の物を使うこともできます。
 スクリーンショット (55)

・キャリブレーションのポイント数は4種類から選択可能
・キャリブレーション範囲→自由に設定可能
・刺激は自動で動かすか手動で動かす(ステップスルー)かが選択可能。
 本人が刺激を見るのを確認して刺激を動かすことでキャリブレーションの成功率は上がります。
・刺激の大きさ、刺激のスピードは、3種類から選択可能です。
スクリーンショット (54)
 
 私は、刺激の動かし方については、ほとんどの場合、ステップスルーをONにして、こちらから視線入力に取り組まれる方の眼球運動に合わせて刺激を動かし(具体的には、各ポイントを見てくれるか近づくまでGaze Traceを見ながら辛抱強く待ちます)、キャリブレーションの成功を狙っています。

 一方、雅也さんのお母さんは、ずっと「自動」で取り組まれてきていました。お母さんはなかなか雅也さんが刺激に注目してくれない、その結果キャリブレーションが成功しないので、刺激をより注意をひきやすいものにする、それを自力で作ることをずっと考えられていました。その答えが、静止画像よりも立体画像、立体画像の中でも動く立体画像でした。
 以下がお母さんが作られた動画の例です。
キャリブレーション用動画

<大事なことはキャリブレーション自体ではなく…>
  さて、雅也さんですが、この前、私が「キャリブレーションはあまり面白くないから見ないんだよねー」とつぶやいたタイミングで吹きだして笑っていました。こちらの意図はお見通しで「もうこれはやりたくない」という意思表示をしっかりしているようです。そういう意志疎通が一番大事なことかと思います。
 雅也さんのキャリブレーションの実際の様子は、YouTubeでご覧ください。




<補足>
 最後に補足です。
(1)キャリブレーションの結果の活用ですが、特にステップスルーで本人に合わせて成功させたキャリブレーションのデータを次の活動に使うかどうかは、とても微妙な判断になります。支援者の高品質のキャリブレーション結果を使ったほうが正確に見ているところが反応しやすいことも十分にありえますので、視線入力に取り組まれる方の様子をよく見て、どのキャリブレーションのデータを使うかを慎重に判断してください。

(2)キャリブレーションの様子を見る時に、視線入力に取り組まれる方が見ているところを知らせてくれるGazeTraceがあるかないかで大違いです。Gaze Traceは、本人にもフィードバックしてより分かりやすくなっていますが、支援者にとっての意味のほうが大きく、刺激の動きと本人の視線の動きの相対的な関係で眼球運動を把握することができます。

(3)  注意点になりますが、<正確>モードでは、GazeTraceは出ません。また、新しいプロファイルを作成するときには、Gaze Traceは消えてしまいます。必ず支援者がプロファイルを先に作り、仮のキャリブレーションをしておいて、その上書きで、本人のキャリブレーションを行うようにしてください。

 
(相澤純一)

「わきあがる闘志」
ー与えられた学びから本人の望む学びへの転換―

28歳の誕生日に想う
DSCN3539

 望さんは、訪問大学生涯学習コースの3年生になった。
   しかし、4月以降、コロナ禍で訪問大学の授業を全面的に休止したため、始業式もできていない。

    4年制の訪問大学を卒業すると、希望者は生涯学習コースに進む。ただ、生涯学習コースというのが分かりにくいので、望さんには、「訪問大学院」という名目で説明している。
「大学院だとしたら、生涯学習コース2年生の修了式は修士課程の修了で、4月からは博士課程だね。」
   と、伝えてある。望さんは学ぶ意欲が旺盛で、訪問大学の授業は月2回だけだが、日常的にかかわりのあるヘルパーさんやボランティアの大学生と絵本を読んだり創作活動をしたり、屋外に出かけて自然の変化を体験的に学んだりもしてきていて、日々、学ぶ活動を大事にしていた。

   
残念ながら、4月からコロナ禍で、今は、生活に密着した関わりが中心になり、学ぶ時間はかなり限られてしまっている。

    望さんは、28歳の誕生日を今日、迎えた。
    障がいの進行を想うと、ご家族にとっても支援者にとっても、1年1年の記念日がとても貴重で、命の足跡として心に深く刻まれる。


自分から学びたい、やってみたいことに挑戦するときとそうでないときの目力の違い

 望さんの授業のメインの手段として、視線入力を取り入れて、5年目になる。訪問大学入学後の1年目はキネクトカメラを設置してOAKを使った演奏やiPadのアプリを使った授業を行っていた。       
 視線入力については、特別支援学校時代に試したことがあるが難しそうだったという話も聞いていて、OAKを舌の動きで使えていたので、あえて積極的に導入しないできていた。

 元教員の私は、「どんな課題でも、全力で取り組んでほしい」と心の隅で思っていた。
 一方、「大学は、自分のやりたいことを学ぶ場・機会だということ」も頭の中で理解はしていた。

 望さんは、正直に表情や視線や声で、やりたいこととあまりやりたくないことを表現してくれていた。分かりやすかったので、少々気持ちの読み取りが苦手でやや鈍感な私も気づくことができた。明らかに前者と後者で目力が違っていたのだ。

与えられた学びから本人の望む学びへの転換

 音楽で、電子キーボードの内蔵曲を1スイッチで演奏する課題にすると、OAKのカメラでとらえている舌の動きが止まることが多くなっていた。私は、大好きな「嵐」の曲の演奏なら楽しめるのではないかと思い込んでいた。
 「嵐」の曲を聴くのは好きかもしれない。でも、演奏となると、また別物だ。
 長く一緒に取り組んでいるヘルパーさんのアドバイスもあり、OAKを止めて視線入力の導入を決断した。

 といっても、視線入力なら、何でも一生懸命取り組めるわけではない。
 手段がよいとしても、動機がなければ「学び」にはつながらない。
 たとえば、DropTalkで視線入力を使った文字の学習に何度か取り組もうとしたこともあるが、それは、残念ながら望さんの心をとらえなかった。

 望さんが選んだ課題は、絵を描くことと、SOUNOS VALKAでの即興の演奏だ。
 手段としては、OAKやスイッチを使った学びから視線入力を使った学びに変更したわけだが、望さんにとって大きかったのは手段の変更ではなかった。
 「やってみたい」「やり続けたい」と心が動く内容が大切だったのだ。

わきあがる闘志

 
3月の修了式の望さんの生涯学習コース2年生のまとめは、大宮エリーさんの詩画集「虹のくじら」の中から「わきあがる闘志」という詩の朗読とのコラボ演奏だ。
 詩の題名でもある「闘志」が、望さんの内面から湧きあがってくるのを肌で感じた。
 射るような視線に心を打たれて、しばらくその余韻に浸ることになった。

  
 
 前日まで体調を崩していたこともあり、帰る前に挨拶をしようとした時には、ぐっすり眠ってしまっていた。
 寝顔は、2時間、真剣に画面に向かい力を出し切ったことを物語っていた。(相澤純一)

↑このページのトップヘ