2023年01月01日

スケープゴートとしての人工知能

このエントリーをはてなブックマークに追加
follow us in feedly
人工知能の責任について考えると、肩代わりさせる生贄としてのシナリオがあり得ると思ったのでした。

人工知能と倫理
伊藤博文 愛知大学
愛知大学情報メディアセンター紀要 43 (2018).


4.1.市場機能

倫理の将来像を検討するにあたり,まず市場(Market)という機能を考慮する必要がある。
人工知能の振る舞いが問題となる局面は,人工知能が何らかの製品に組み込まれ,それが商品にとして市場に出回り消費者事故となる局面である。


たとえば自動運転のできる自家用車に装備された自動運転プログラムに組み込むモジュールとして倫理Model Aと倫理Model Bという商品があるとする。

Model Aは人命を尊重し,如何なる場合も人身事故を回避する行動をとること選択する倫理モジュールである。
一方Model Bは,人命よりも走行の効率性を優先する。目的地にまで確実に短時間で到達することが重視され,人身事故を引き起こしそうな場面では功利的な考慮を行い被害者数の少ない選択肢を選ぶとする。
これを自動運転プログラムに入れるとき,自動運転車を購入する一般消費者が,あたかも任意保険の保障内容を選択するように選ぶとする。つまり,倫理の商品化である。人工知能搭載倫理モジュールを商品として,倫理の善し悪しを市場に委ねる方法である。

しかしながら,このような市場による社会的選択の選好は機能しにくい。それは,単純に市場における需要供給のバランスが導く売買価格で決められる問題ではない。
つまり,廉価で安全に配慮しない人工知能倫理モジュールが,市場を席巻し事実上の標準(De facto standard)になってしまうともはや倫理問題はなくなり,何も機能しない



 市場の失敗が起きてしまうと、倫理が機能しなくなってしまう。
元々この業界は、Winner Take Allが非常に起きやすいのですから、この可能性は高いです。

4.2.営利行為と倫理

もっとも,人工知能の引き起こした社会的責任を全て製造者に負わせるとすれば,
人工知能開発者の取る選択肢は,法的に最も責任回避が可能なアルゴリズムであり,製造者の利潤を最大化するアルゴリズムを実装するのは明白であり,社会規範としての倫理は機能しなくなる



..............この簡単な回避策としては、知能的エンジンをアウトソーシングしてしまう事、外部APIを使ってしまう事です。そうすれば、責任を押し付けられます。

自動運転車に搭載される人工知能を開発するのは,営利企業である自動車製造会社であり,営利企業の至上命題は利潤追求である。
人工知能に倫理を持たせ判断させる必要などはなく,トロッコ問題においては,如何に法的リスクを回避できるかを最適解とする。
つまり,人工知能の振る舞いとして,たとえ事故が起きるような状況に入ったとしても,最も法的責任が軽くなる選択肢を選ぶようなアルゴリズムが選択されプログラムが書かれる。
法的責任を最も安価に回避できる行動が人工知能の倫理となるとする。



...しかしこの話を一般化すると、
人間一般が様々な(責任を伴う)判断を下す時、人工知能に委任してしまうシナリオがあり得ます。
「人工知能のせいだから、自分のせいではない」と
人々の無責任化が進んでいる時代ですから。


人工知能が身代わり,生贄 として人の罪を負う時代が来る、と...







しかしサービス提供者側としては責任は免れたいので、契約書、規約の方でもその様な所を強調する事になり、利用者に責任を押し付けようとするでしょう。
しかし利用者側としてその様なサービスを進んで使おうと思うでしょうか? この辺りで、消費者に責任が押し付けられてしまう形態が席巻してしまう、前述の市場の失敗が起きないとも限りませんが...

商品利用前から責任の押し付け合いが発生しそうですよ。
では人工知能の過誤による損害について、提供者側、消費者側それぞれ向けの保険が出てくるでしょうか?


tak_tak0 at 12:00コメント(0)IT原理主義   この記事をクリップ!

コメントする

名前:
URL:
  情報を記憶: 評価:  顔   星
 
 
 
サイト内検索
にほんブログ村 科学ブログへ
にほんブログ村
adsense
Archives
amazon
blogchart
QRコード
QRコード
Recent Comments