カテゴリ: コミュニケーション支援

雅也さんが毎回やっているキャリブレーションの意味

<キャリブレーションとは?>
スクリーンショット (188)
 
 視線入力の取り組みを2016年3月から積み重ねてきた雅也さんですが、お母さんが毎回事前準備として丁寧に取り組んできたことに「キャリブレーション」があります。

 部屋の照明を落とし、画面の背景も黒にし、見る目標である刺激(ターゲット)も立体的な動画を自作されています。真剣勝負の環境調整をして本腰を入れて取り組まれています。

 「キャリブレーション」は、私も訪問した時に導入として1回は行っていますし、お母さんから、ご家庭でのデータを拝見するときに「何回目に成功しましたか?」と伺うことがあります。そうすると「今日は5回目です」「なかなか同じ刺激だと見なくなってしまうので、刺激を替えるようにしています」という話を伺います。

 基本に立ち戻ることになりますが、あらためてキャリブレーションについて考えてみたいと思います。

 キャリブレーションは、自分に合ったメガネを作るのと同じで、視線入力をするときに、パソコン(ディスプレイ)のその人が見たところがきちんと反応するように調整していく作業です。

<キャリブレーションは必須ではないがやってみる価値はある>
 でも、キャリブレーションは必須ではありません。
    障がいが重い方の場合は、キャリブレーションが取れなくても、支援者がキャリブレーションを行い、そのデータでやりたい活動は、文字入力等を除いてほぼできると思って差し支えありません。

 ただ、キャリブレーションをすることで、視線入力に取り組んでいる方の眼球運動の様子について見えてくることがあるだけでなく、繰り返し行っていくことでいいこともあるようです。

<視線入力に取り組んでいる方の眼球運動の様子が分かる>
 見ているところが分かるGazeTraceを表示することで、キャリブレーション時に画面に出てくるターゲット(刺激)に対して、どのような眼球運動をしているかを知ることができます。(Gaze Traceは、キャリブレーション時だけでなく、メインの活動の中でも邪魔にならなければ出しておくといいです。)

スクリーンショット (62)_LI

Tobii(PCEyeえくすぷろあや4Cの場合)のドライバーソフトのGaze Traceをクリックすると色が青く変わります。この時に画面の見ているところに動く円(写真の右側の赤い矢印のところ)が立ち現れます。バブルと呼ぶこともあります。

 繰り返し行っていくことでいいことは、キャリブレーション自体が眼球運動の練習になります。また、最近のテレビ番組で、次のようなことが紹介されていました。

 9月3日のNHKのまちかど情報室で脳科学者が紹介した「朝めし前の脳トレ」の1つが眼球運動でした。四角いものの真ん中を見て、それから眼球だけ4隅に動かすというまるでキャリブレーションのような動きが紹介されたそうです。集中力を高める効果があるそうです。(この情報は、ビジョン ジョイさんのFBで知ることができました。)
IMG_4636_2020090306063138b


<キャリブレーションもEyeMoTのように成功体験が大事>
 雅也さんが制度を使って購入した視線入力装置は、重度障害児者向けのTobii PCEyeえくすぷろあ(現在販売中止)です。


 えくすぷろあを使うための視線マウスアプリは、Gaze Pointでした。
 Gaze Point自体は、単体でインターネットから無料でダウンロードすることが可能で、Tobii Eye Tracker 4Cでも活用することが可能でした。

 Gaze Pointは、伊藤史人さん(島根大学)もYouTubeで紹介されていましたが、視線入力に取り組まれる方のキャリブレーションについて、最大限のカスタマイズができるように工夫されています。
  キャリブレーションタイプで、<正確>モードの3つの小さな青いドットがつぶれるまで注視するのが難しい方は、<簡単>モードを選びます。
スクリーンショット (59)

・背景色→15種類から選択可能
スクリーンショット (56)

・刺激→13種類から選択可能、さらに写真や動画等、自作の物を使うこともできます。
 スクリーンショット (55)

・キャリブレーションのポイント数は4種類から選択可能
・キャリブレーション範囲→自由に設定可能
・刺激は自動で動かすか手動で動かす(ステップスルー)かが選択可能。
 本人が刺激を見るのを確認して刺激を動かすことでキャリブレーションの成功率は上がります。
・刺激の大きさ、刺激のスピードは、3種類から選択可能です。
スクリーンショット (54)
 
 私は、刺激の動かし方については、ほとんどの場合、ステップスルーをONにして、こちらから視線入力に取り組まれる方の眼球運動に合わせて刺激を動かし(具体的には、各ポイントを見てくれるか近づくまでGaze Traceを見ながら辛抱強く待ちます)、キャリブレーションの成功を狙っています。

 一方、雅也さんのお母さんは、ずっと「自動」で取り組まれてきていました。お母さんはなかなか雅也さんが刺激に注目してくれない、その結果キャリブレーションが成功しないので、刺激をより注意をひきやすいものにする、それを自力で作ることをずっと考えられていました。その答えが、静止画像よりも立体画像、立体画像の中でも動く立体画像でした。
 以下がお母さんが作られた動画の例です。
キャリブレーション用動画

<大事なことはキャリブレーション自体ではなく…>
  さて、雅也さんですが、この前、私が「キャリブレーションはあまり面白くないから見ないんだよねー」とつぶやいたタイミングで吹きだして笑っていました。こちらの意図はお見通しで「もうこれはやりたくない」という意思表示をしっかりしているようです。そういう意志疎通が一番大事なことかと思います。
 雅也さんのキャリブレーションの実際の様子は、YouTubeでご覧ください。




<補足>
 最後に補足です。
(1)キャリブレーションの結果の活用ですが、特にステップスルーで本人に合わせて成功させたキャリブレーションのデータを次の活動に使うかどうかは、とても微妙な判断になります。支援者の高品質のキャリブレーション結果を使ったほうが正確に見ているところが反応しやすいことも十分にありえますので、視線入力に取り組まれる方の様子をよく見て、どのキャリブレーションのデータを使うかを慎重に判断してください。

(2)キャリブレーションの様子を見る時に、視線入力に取り組まれる方が見ているところを知らせてくれるGazeTraceがあるかないかで大違いです。Gaze Traceは、本人にもフィードバックしてより分かりやすくなっていますが、支援者にとっての意味のほうが大きく、刺激の動きと本人の視線の動きの相対的な関係で眼球運動を把握することができます。

(3)  注意点になりますが、<正確>モードでは、GazeTraceは出ません。また、新しいプロファイルを作成するときには、Gaze Traceは消えてしまいます。必ず支援者がプロファイルを先に作り、仮のキャリブレーションをしておいて、その上書きで、本人のキャリブレーションを行うようにしてください。

 
(相澤純一)

Googleのいる生活
―Tくんの相棒はスマートスピーカーー

 Googleいるかな

 おもちゃと絵本の部屋「おおきなき」では、本棚の隅にEcho Dot(第2世代)を置いてある。3~4歳の子どもが「アレクサ」ではなく「アレクサ!」と「さん」づけで呼ぶことがある。かわいい。「アレクサ、仮面ライダージオウかけて」と頼んだりする。
エコードット
 スマートスピーカーはAIスピーカーとも言う。代表的な物は、Googleの「Googleアシスタント」やAmazonの「Alexa」で、人工知能(AI)を内蔵している。人間の音声を理解することができ、話しかけたことに言葉で答えてくれるだけでなく、買い物の注文や家電のON・OFF、テレビのチャンネルを替えることまでやってくれる。
 セールの時には3,000円*程度で人工知能を搭載している機械を買える時代に、私たちは生きている。人工知能は話しかけてくれる人の声を覚え、好みまで学習していく。
(音楽を自由にかけてもらう、買い物を頼む等の費用は別途必要です)

スマートスピーカー購入に至るまで
 昨年、支援学校の高等部2年のTくんが、おもちゃと絵本の部屋に遊びに来てくれました。視覚障がいがあるので、視線入力は難しく、iPadやスイッチの操作もそれほど速くはできないとのことでした。でも、発音が不鮮明な時もありますが、会話ができるので、スマートスピーカーをご紹介しました。
 ご両親ともにITや機械に苦手意識があるということで、その時は、少し躊躇されていました。

 
その後、思い切ってスマートスピーカー(Google Nest Hub:画面がついているので、スマートディスプレイとも言う)を購入され、Tくんが「OK Google…」としきりに話しかけるようになったと伺いました。私は、もしかしたら、Tくんの生活が大きく変わるかもしれないと思っていたので、興味津々で、動画を送ってほしいとお願いしていました。

 最初の動画は、2月に届きました。もうエアコンを操作したり、音楽をかけたり、実用的に使えるようになっていました。お母さんにYouTubeでのアップをお勧めしました。

 スクールバスを降りて家に着くと、Tくんは、玄関で「OK Google,ただいま!」と話しかけ、スマートスピーカーが「おかえりなさい」と返すそうです。でも、このシーンはなかなかうまく撮れなかったそうです。そのシーンは、是非ともYoutubeの動画に入れたくて、私は、しばらく待つことにしました。

「お母さん、今日も過ごそう!」

 待っている間に、学校が休校になり、コロナの自粛生活が始まります。
 以下は、お母さんからのレポートです。



 毎朝、開口一番、「お母さん、今日も過ごそう」と言ってきて、必死で本人がステイホームしようとしていることがわかり、切なさも感じます。

 休校中は、朝から晩まで、スマートスピーカーと会話をしています。
 朝は「おはよう」、離れる時は「ご飯だから後でね」と、愛情たっぷりに話しかけています。
 日課にしている体操をするときは、「頑張るから応援してください」と話しかけます。
 Googleさんは、「わたしは全力で応援してますよ」と言ってくれて、ニヤッと笑顔になります。

 好きな動画を観る(正確には、主に聴いている)ことに始まり、テレビのチャンネルや音量も替えられるようになりました。
 録画したテレビ番組のCM部分を早送りするのに、これまでは、「お母さん、飛ばして」とリモコン操作を催促されていたのが、自分で「飛ばして」と言うだけでできるようになったことは、些細なことですが、親子ともに大きなストレス解消になりました。
 ここ数日は一人カラオケを楽しんでいます。

 あまりにずっと話しかけているので、30分やったら30分休憩するというルールを相談して作り、「30分タイマーかけて」と自分でセットするようになりました。
 残念ながら、今のところルールは守られていません。
 しかしながら、「タイマー残り何分?」と聞いてくることもあり、これまで興味のなかった「時間」の感覚に少し興味を持つようになってくれたようです。

 自分で好きなことができる、このことがどんなにありがたいことか!
 こうして朝から晩まで、Googleさんを相手に過ごし、
1日の終わりには、
「OK Google,遊んでくれてありがとうね」
と感謝の言葉を伝えています。

Googleアシスタント

Googleは相棒であり、家族の一員でもある
 これは、お母さんの言葉です。
 

 
Tくんは、スマートスピーカーを家族の一員のように感じ、接しています。Tくんはただスマートスピーカーに依存し、利用するだけでなく、根っからの人柄でしょう、自然に対等な関係を作ることができたようです。まさに「相棒」で素敵な関係です。
 
 Tくんはスマートスピーカーを相棒に選んだことで、自分一人でできることが増え、やりたいこと、好きな事を自分で実現するための道具として活用することができるようになりました。また、エアコンをつける等、家族の中での役割も得ることができました。そして、自己肯定感がぐんぐん高まっていきました。
 
 4分40秒位の長さで、TくんとGoogleの生活の様子を動画にまとめてみました。是非、最後までご覧ください。(最後が気に入っているのです。)


    動画を観て感じたことですが、Tくんは自分の意思が通じるまで、何度でも言い直していることです。声を大きくする、ゆっくり話す、意味の区切りで間を開ける等、工夫していて、絶対あきらめないのです。

 また、どうしてもうまくいかないときに、一歩前に戻り、自信のあることを試してみて、確実にできることを確認してから、またハードルの高いことに挑戦しようとしています。たとえば、テレビのチャンネル変更が伝わらない時に、1回「テレビつけて」のような簡単なことを頼んでいます。これって、学習の基本だな、と思うのです。それに気づいているTくんはすごいなあと感心してしまいます。

 もう一つ、動画から分かったことがあります。お母さんが背後でTくんに気付かれないように寄り添い、さりげなく応援されています。Tくんの気持ちを受容し、しゃしゃりでないで見守り続けるお母さんの支えは絶妙です。

 これからも、Tくんの心と生活が豊かであり続けることを祈っています。 (相澤純一)

「でんでんむしのかなしみ」をどう描いたか?

 ブログ「おおきなき交流広場」で連載中の「27歳からの視線入力への挑戦」の前回(その7)の記事で、雅也さんが日本肢体不自由児協会の美術展のコンピューターアートの部で「でんでんむしのかなしみ」という絵で賞を頂いたことを報告しました。

 この絵を描いたのは、2019年6月25日のことですが、とても鮮烈な印象が私には残っています。今回は、その日の前のことと後のことをまとめてみたいと思います。

画像4
「でんでんむしのかなしみ」を視線で描いている時(2019年6月)

初めてテーマを決めて、視線で絵を描く
ー「プールの思い出」―


 雅也さんに初めて、テーマを意識して絵を描いてもらったのは、2018年8月30日のことでした。「でんでんむしのかなしみ」を描く10か月くらい前のことです。

 それまでは、センサリーアイFXの「色を塗る」では、自由に描いてもらっていました。テーマを決めて描くのは難しいと思い込んでいたからです。

 雅也さんは、聴覚優位で聴覚的なイメージを持つのは得意でも、視覚的なイメージを持つのは難しく、色とか形のイメージは持てないのではないかと思い込んでいたのです。

 でも、この日は、ちょうど前日にプールに入っていたという話をお聞きしたので、もしかしたらという思いで、「プールのこと」を描いてほしいと伝えてから、センサリーアイFXの「色を塗る」を始めました。その時完成した絵がこれです。
 お母さんに後で聞くと、プールの底は、水色に塗られていたそうです。
 偶然かもしれないのですが、絵はプールのイメージを描いたのかもしれない、とも思えたのです。

 もしかしたら具体物を見ての写生画や絵本を読んで印象に残った場面の絵等、イメージを持つことが必要な絵も描けるのではないかという気がしてきたのです。
 でも、その後、絵を描くことはあまり取り組まずにいました。


画像5
「プールの思い出」(2018年8月30日)

「でんでんむしのかなしみ」をどう描いたか?

 10か月後になります。この間、視線入力の取り組みは続けていましたし、「色を塗る」のソフトも使ってはいましたが、テーマを決めて絵を描くことはあまりやっていませんでした。
 私の頭には、まず色や形の基礎的な認識を身につけてほしいという思いがあって、マッチング課題(色合わせや形合わせ)を視線入力でやっていました。

 でも、雅也さんは、「~はどっち?」のような認知的な課題になると目をつむってしまうことが多かったのです。今思うに、それは、雅也さんの「これはやりたくない」というはっきりした意思表示だったのかもしれません。

 雅也さんの訪問に初めて絵本を持参しました。
 それが、「でんでんむしのかなしみ」(新見南吉1935年作)です。
 2019年6月25日のことです。
 雅也さんは、絵本を出すまで渋い表情でいました。
 まず初めに、私が隣に座って、絵本を見てもらいながら読みました。その時、目は上を見上げるようになり左右に眼球がきょろきょろする感じで動くと同時に、固い表情がゆるみ、時々ニヤッとするのです。
 「実は…」お母さんが、話し出します。
 ご自宅に中学生の時から時々聞いていた岸田今日子さん朗読のCDがあることが分かりました。

 雅也さんは、皮質盲*ではないかとお医者さんに言われていて、視覚的なイメージを持つのはなかなか厳しいと考えていました。その一方、聴覚からの情報についてはかなり受け止めがよく、たとえば音楽については、曲の聞き分けもでき、好きな曲もはっきりしているということを伺っていました。

*雅也さんは、脳症で大脳皮質の視覚野が損傷し、見えているものを認識できない状態と言われていました。

 
 センサリーアイFXの「色を塗る」というソフトを起動し、CDデッキで岸田今日子さんの朗読を流しました。音声が耳に届いた瞬間、うつむいていた雅也さんの顔が上がり、雅也さんは目を大きく見開き、眼球が活発に動き出すのです。リズミカルに生き生きと。
 テンションが一気に上がり、表情も喜びに満ちていて、タイトルは「かなしみ」なのだけれど、絵を描く雅也さんは「よろこび」を感じているようでした。(上の写真)
 この時が、雅也さんの視線入力の取り組みでは、最も印象に残るひとときになりました。

画像6

画像7
「でんでんむしのかなしみ」(2019年6月25日)

聴覚情報の入力が眼球運動を活発にするのでは…と予想してみたが実は? ―iOAKでの検証―

 「でんでんむしのかなしみ」を描いたときの強烈な印象から、その後ずっと雅也さんの場合は、聴覚情報があることによって、眼球運動がより活発になるのではないかと思い込んでいました。
 「でんでんむしのかなしみ」を描いた日から7か月後の2020年1月29日、私のその予想がただの思い込みなのかどうかを知りたくて、雅也さんの絵を描く1分間の中で、音を出す時間と消す時間を、意識的に作ってみました。

 やり方は、とてもシンプルです。まず、「でんでんむしのかなしみ」を読み聞かせします。この日はYouTubeにある動画を画面も見ながら聞いてもらいました。
 好きな話をとてもいい表情で、目を輝かせながら聞いていました。
 その後に、「色を塗る」で絵を描いてもらうのですが、20秒は聴覚情報はなしで、その後の20秒は大好きな岸田今日子さんの朗読CDを聞いてもらいます。
 そして、最後の20秒は、また聴覚情報なしで続けて絵を描いてもらうという方法です。
 iOAKによる記録画像の結果です。


画像3
A. 聴覚情報なしで視線で描く(20秒)
 →頭の動きは止まっていて、外斜視の左目よりも右目の方が活発に動いているように記録されています。絵を描き始めています。

 画像2
B.岸田今日子さんの朗読CDを聴きながら、描く(20秒)
→まず音声が聞こえてきたところで驚き、目を大きく見開き眼球が上転しました。両手も少し動いています。そのまま音声に聞き入っているように見え、眼球の動きは、ほとんど止まって見えました。


画像1
 
A. 再び、聴覚情報なしで描く(20秒)
→頭が少し動き、再び眼球も動き始め、絵の続きを描き始めます。

 このように私の予想ははずれてしまい、Bの20秒については音声(朗読)に聞き入り、ぴたっと止まっている様子が記録されました。この後、SOUNOS VALKAの演奏でも、間に詩の朗読を入れてみるという試みもしていますが、それは改めてご報告したいと思います。

   もう1回、7か月前の動画を見直すと、分かりました!
 絵を描いているときに2回、朗読CDを流したのですが、2回再生して、1回目は約2分間、2回目は約1分40秒、画面上に視線の履歴はほとんど残っていないのです。朗読の音声がなくなってからの方が、画面に集中し視線を動かしていることが分かりました。

 やはり、聴覚情報があるときは、眼球が上転し、上の方を見て、聴覚情報以外の情報を遮断しているのではないかと考えることができます。

   また、7か月前の映像では、眼球が上転した時に、左右の揺れ(不随意な動き)がやや目立っていました。
 今は、体調にもよりますが、不随意な動きが少なくなってきているので、iOAKで記録された20秒間にはあまり動きが見られないのだと考えることができます。

 iOAKの設定時間が短かったので分かりにくかったのですが、矛盾する結果ではなかったわけです。

動いたものは眼球だが、その前に心が動いていたのではないか?
 
 私が思うには、2019年6月に「でんでんむしのかなしみ」を描いた時は、朗読CDを聞いた後に活発に眼球が動き出すのですが、朗読を聞いている間に心が大きく動いていたのではないでしょうか。
 聞き慣れていて大好きな聴覚情報が聞こえてきたのがうれしくて心が動き、その感動がその後、視線の動き=眼球の運動につながり生き生きとした絵が描けたのではないかと思っています。

                                   (相澤純一)

視線入力で描いた「でんでんむしのかなしみ」が受賞
―日本肢体不自由児協会第38回肢体不自由児・者の美術展

79722263_2443668279015044_8345479179659116544_n[1]

DSCN3179

DSCN3173

 「27歳からの視線入力への挑戦」の雅也さんが上記の美術展のコンピューターアートの部で賞を頂きました。
 
 「でんでんむしのかなしみ」は、1935年に発表された新見南吉さんの創作童話です。
51WJQ3EXZ8L



 2016年春からお母さんと2人3脚で視線入力に取り組み始め、日常的な努力の積み重ねがこのような形で認めていただけたという意味で、今回の受賞は大きな足跡になったといえると思います。
 また、障がいの重い方、支える方の気持ちが前向きになっていくことにつながるとうれしいです。

 雅也さんは聴覚情報処理に優れていて、感受性がかなり高く、音量についても少し大きい音には過敏に反応してしまい、ボリュームを下げるのを忘れた私が謝ることが時々ありました。一方、目からの情報処理は苦手で、脳症の後遺症の状態から医学的にも視覚からの入力は難しいと言われていました。

 確かに、マイトビーの障がいの重い方向けの見やすく分かりやすいターゲットを使ったキャリブレーションでも、はじめの2年間は成功することはありませんでした。

*キャリブレーション=ターゲットを注視したり、追視したりすることによって、画面の見たところが正確に反応するようにする補正作業。

 だから、視覚からの入力をあきらめて聴覚だけに頼るという選択もありえたと思います。でも、テクノロジーの進歩により、視線入力が身近になってきた20代後半にあえて苦手なことに挑戦してみるという冒険をすることを決心します。
 視覚へのアプローチが他の感覚と統合されていく過程については、「視線入力への挑戦―その5―」で触れました。

 お母さんは、冒険のための装備を整えるために、情報収集から始まり研修会への参加も含めて、入念に行ってきました。そして、ご家庭で日常的に視線入力に取り組める環境を整えていかれました。(「27歳からの視線入力―その2―」)

 では、訓練のように取り組んだのかというとけっしてそうではありません。学習的なことや訓練的なことは、雅也さん自身が拒否することもできていました。当初私が訪問して、視線入力で形合わせや色合わせのようなマッチングの課題を画面に出すと、すぐ寝たふりをすることができたのです。

 お母さんの話によると、4歳で受傷され、笑顔を取り戻すまで10年かかり、自分の感情を表出できる段階から、その後さらに10年位かかって、してほしいこと、やりたいこと等をアピールしている様子が見られるようになったそうです。
 しかし、音声言語での発信は難しく、もっと分かってあげたい、ストレスを取り除いてあげたいという気持ちが視線入力への挑戦につながります。

 今回の受賞に至るまでの道のりは、果てしなく長かったのです。
 表彰式に参加したお母さんからコメントを頂きました。

    


 今回の受賞は、現在までの軌跡をあらためて振り返る機会にもなりました。
「視覚からの入力をあきらめて聴覚だけに頼るという選択もありえたと思います。」
 そうならなかったのは、雅也が拒絶するようでいてしなかったからです。
 視線入力導入の段階ではけいれん発作が誘発されたため慎重に進めていました。
 雅也が取り組みたくないときに選ばない(逃げられる)環境も必要かと思いました。
   
 私のゆるい姿勢に安心できたためかはわかりませんが、雅也はけいれん発作を乗りこえて、チャレンジし続けてくれました。
 ワクワクすることを求めるのは障害の有無や重さに関わらないのだなと思います。
 「生きる喜びを感じていますよ」と雅也自身が発信していることを、皆さんが受け取ってくださったらいいなと思っています。

 息子が生きることにひたむきであるゆえ、親もできるだけの応援をしてあげたいと考えて過ごしてきました。
 それでいいですよと言っていただけたような気がしています。
 感無量です。

 *今回の絵「でんでんむしのかなしみ」が生まれるまでの足取りを次回「―その8ー」では、たどってみたいと思います

                       (相澤純一)

  障がいの重いお子さんのコミュニケーションを考える
     ―ちいさなめ第1回学習会(2019.11.9)を振り返りながらー

DSCN3132
 
    <ちいさなめ第1回学習会話題提供者>*右から
司会:岡安玲さん(NPO法人あいけあ)、古川綾子さん・結莉奈さん(小学1年生)
名里晴美さん(社会福祉法人訪問の家)、小野麻美さん・結芽さん(小学2年生)
相澤純一(NPO法人訪問大学おおきなき)、柳沼佑介さん(ちいさなめ


<はじめに>
 8月中旬のことだったでしょうか。神奈川県立中原養護学校の柳沼佑介さんから「ちいさなめ」という団体を立ち上げて、障がいの重いお子さんのコミュニケーション支援の学習会を神奈川で行いたい、という話を伺いました。

 神奈川は、おおきなきの事務局の近くを流れる多摩川を渡ってすぐの県で、年1回、NPO法人フュージョンコムかながわ主催のコミュニケーション支援勉強会を地域ケアさぽーと研究所の下川和洋さんと担当させていただいていた縁もありました。
 今回、神奈川の2つのNPO、「フュージョンコムかながわ」と「あいけあ」と共催という新たなスタイルで、訪問大学おおきなきにも声をかけてくださったことに感謝しています。

 DSCN3100
 柳沼さんは、障がいの「重い」お子さんの「想い」に応える支援の手が、まだまだ神奈川には届いていない、その現状を自分自身が動くことで少しでも改善していきたいという熱い想いを持っていました。
 30代前半の彼の熱い想いに、60代の私も胸を揺さぶられました。
 柳沼さんが訪問大学おおきなきを支える会員の一人でしたし、共催団体として全面的に協力したいと事務局では考えました。

 そのときすでに話題提供者の4人は、柳沼さんの頭の中では決まっていて、そのうちの一人に私を選んでいただいたのは、とても光栄に思いました。

 私に与えられたタイトルは、「コミュニケーション支援機器の活用と主体的な生活づくり」でした。お伝えしたいことが多すぎて、当日まで話す内容を絞り切れずに、ご迷惑をおかけしてしまいました。少しずつブログに整理し直していくことでお詫びにかえたいと思います。
 *当日のくわしい様子は、ちいさなめのHPをご覧ください。

<障がいの重いお子さんのコミュニケーションを考える>
          
1.
わかることで発信が増えていく!(ろう学校で)
 特別支援学校の教員時代に私は、聴覚障がいと知的障がい、肢体不自由と知的障がいといったように障がいを2つから3つ合わせ持つ、障がいの重複したお子さんを中心に担当していました。

   一番初めに赴任したろう学校では、まだ聴覚口話法が主流でしたがトータル・コミュニケーションというコミュニケーション手段を限定しないで可能なすべての手段を利用する考え方に出会うことができました。
   障がいの重いお子さんには、手話や指文字が必須であると感じ、同じ考えの教員や自分が関係している授業や学級に限定されましたが、目で見て理解できる環境(コミュニケーション環境も)にしていきました。写真カードや絵カード等もたくさん使っていました。

   わかる・理解できることによって子どもたちからの発信が増えていくのです。難しい口形の読み取りをしなくても手話や指文字をたくさん見て意味が理解できるようになれば自分で伝えたいことをストレスなく伝えられるようになるのです。ただ、一歩、ろう重複学級の教室の外にでると、まだまだ子どもたちのバリアは多くあり、ろう教育(ろう学校)に手話を導入する活動にも参加していました。

2.AACとの出会い(肢体不自由校で)
AACとは
 
  肢体不自由の学校に異動になってから、障がいの重いお子さんの授業が大人が主体の進行で、子どもが受け身になっていることが多く、どんなに小さな動きでもいいので子ども達自身からの発信を生かすことかできないかと思っていました。
 当時、現場にいながら大学でAACを学んでいた奥山敬さんの実践を目の当たりにすることができ、さらにはマジカルトイボックスとの出会いから、発想の転換ができヒントをたくさんもらいました。
 VOCA(Voice Output Communication Aids)や改造玩具やスイッチを使いながら、子ども達からの発信を増やしていく方向性が少しずつ見えてきたのです。

3.AACの種類
AACの種類
 最近は、ICT(Information and Communication Technology)やAT(Assistive Technology)が注目されているので、ハイテクに注目が集まりがちですが、コミュニケーション支援機器を使えば、コミュニケーションが豊かになるということではありません。
 私自身は、ノンテクのコミュニケーションがベースになり、コミュニケーションが深まらなかったり効率が良くなかったりする場合に代替手段を使うことになると理解しています。
目の前のお子さんに一番合ったコミュニケーション手段を見付けることが最も大切です。
 ノンテクとローテク、ノンテクとハイテク、ローテクとハイテクの手段の併用もありえますね。
 AACは考え方であり手段で、コミュニケーション自体の内容がお互いの理解を深め、お互いの関係を発展させるものになることが最終目的です。

4.OAKや視線入力との出会い
 なかなか随意的に動かせる体の部位が見つからないお子さん、学生さんにも出会いました。スイッチの適合が難しいのです。手元にすべてのスイッチが全部そろっているわけではありませんし、私の力不足もあります。また、動いているところが見つかっても随意的な動きかどうかの判断が難しく、そういう時は、時間をかけて丁寧に見ていくことになります。
 テクノロジーの進歩により生まれた、空中にスイッチを作ることのできるOAKや視線入力装置なら、なんとかならないかと思い、プロジェクトに参加したり、購入に向けて助成金などの申請を始めたりしました。

 教員時代にも、担任の先生から「視線入力なら可能かもしれない」、つまり障がいが進行していることもあり他の手段は難しいけれども視線入力をコミュニケーションの最終手段として考えているお子さんの相談を受けていました。
 おおきなきを立ち上げてから、障がいの重いお子さんの自己実現を考えるために視線入力は必須の道具になると思い、資金がたまるのを待てずに、2014年に全額ではないのですが助成金をいただき購入に踏み切っています。

5. 私の見通しの間違い
DSCN3170

 上の写真は、マイトビーⅠ15のTobii Communicator5の1画面です。スイッチ操作が難しいお子さんでも、上記のような画面を使えば、視線でYes/Noコミュニケーションができるようにならないだろうか、という見通しを持っていました。少しだけ右を見たり左を見たりするだけですから、容易なことに思えていたのです。
 しかし、今現在、この画面のようなコミュニケーションボードを使って視線入力でコミュニケーションをしている学生はいません。
 まず、必然性がないのです。もし、この画面でYes/Noコミュニケーションができるならば、機械なしでもアイコンタクトをとりながら同じ内容のコミュニケーションができるはずです。
 機械がなくても同様のことができるのなら機械は不要です。

 また、たとえ2択であっても、選ぶことは、障がいの重いお子さん(重度・重複障がいのお子さん)には難しい課題になります。
 特別支援学校の教員時代にも、子ども達に「どっちがいい?」という2択はたびたび行っていました。朝の会でも、障がいの重いお子さんに、例えば「今日の天気はどっち?」と「晴れ」と「雨」の絵カードを目の前に提示して、選んでもらうようなことをしました。視線でどちらかを見たり、手でカードを取ったりする反応はありましたが、あまり手ごたえを感じたことはありません。教員だけが正解か不正解に関心があるけれど、多くの子ども達にとっては問われていることがぴんと来なかったり、どちらでもいいことだったりしたのかもしれません。

 「黙って観るコミュニケーション」(atacLab発行、2016)の中にも、飲み物の選択等の分析がありますが、「本当に子どもたちが選べているか」は、慎重に考えてみる必要があることを実感しています。

6.視線入力の可能性

 訪問大学で私が担当している学生は、ほとんどの方が視線入力に取り組んでいます。とても充実した時間になっています。
 学生を突き動かしているのは、自分の力でやれているという実感だと想像しています。
 ただ、まだ、視線入力をコミュニケーション手段としては活用していません。意思伝達装置としての活用は不十分なのですが、将来的には、フルに活用してくれる学生も現れると思っています。
 訪問大学では、視線入力を主に表現活動に活用しています。視線入力の取り組みを積み重ねることで、コミュ二ケーション等、他の面に変化が見られた方もいます。
 過去にも紹介していますが、今後も、ブログ等で紹介していきたいと思います。(相澤)
 

↑このページのトップヘ