IT原理主義
2023年01月01日
人工知能の責任について考えると、肩代わりさせる生贄としてのシナリオがあり得ると思ったのでした。
人工知能と倫理
伊藤博文 愛知大学
愛知大学情報メディアセンター紀要 43 (2018).
市場の失敗が起きてしまうと、倫理が機能しなくなってしまう。
元々この業界は、Winner Take Allが非常に起きやすいのですから、この可能性は高いです。
..............この簡単な回避策としては、知能的エンジンをアウトソーシングしてしまう事、外部APIを使ってしまう事です。そうすれば、責任を押し付けられます。
...しかしこの話を一般化すると、
人間一般が様々な(責任を伴う)判断を下す時、人工知能に委任してしまうシナリオがあり得ます。
「人工知能のせいだから、自分のせいではない」と
人々の無責任化が進んでいる時代ですから。
続きを読む
人工知能と倫理
伊藤博文 愛知大学
愛知大学情報メディアセンター紀要 43 (2018).
4.1.市場機能
倫理の将来像を検討するにあたり,まず市場(Market)という機能を考慮する必要がある。
人工知能の振る舞いが問題となる局面は,人工知能が何らかの製品に組み込まれ,それが商品にとして市場に出回り消費者事故となる局面である。
たとえば自動運転のできる自家用車に装備された自動運転プログラムに組み込むモジュールとして倫理Model Aと倫理Model Bという商品があるとする。
Model Aは人命を尊重し,如何なる場合も人身事故を回避する行動をとること選択する倫理モジュールである。
一方Model Bは,人命よりも走行の効率性を優先する。目的地にまで確実に短時間で到達することが重視され,人身事故を引き起こしそうな場面では功利的な考慮を行い被害者数の少ない選択肢を選ぶとする。
これを自動運転プログラムに入れるとき,自動運転車を購入する一般消費者が,あたかも任意保険の保障内容を選択するように選ぶとする。つまり,倫理の商品化である。人工知能搭載倫理モジュールを商品として,倫理の善し悪しを市場に委ねる方法である。
しかしながら,このような市場による社会的選択の選好は機能しにくい。それは,単純に市場における需要供給のバランスが導く売買価格で決められる問題ではない。
つまり,廉価で安全に配慮しない人工知能倫理モジュールが,市場を席巻し事実上の標準(De facto standard)になってしまうともはや倫理問題はなくなり,何も機能しない。
市場の失敗が起きてしまうと、倫理が機能しなくなってしまう。
元々この業界は、Winner Take Allが非常に起きやすいのですから、この可能性は高いです。
4.2.営利行為と倫理
もっとも,人工知能の引き起こした社会的責任を全て製造者に負わせるとすれば,
人工知能開発者の取る選択肢は,法的に最も責任回避が可能なアルゴリズムであり,製造者の利潤を最大化するアルゴリズムを実装するのは明白であり,社会規範としての倫理は機能しなくなる。
..............この簡単な回避策としては、知能的エンジンをアウトソーシングしてしまう事、外部APIを使ってしまう事です。そうすれば、責任を押し付けられます。
自動運転車に搭載される人工知能を開発するのは,営利企業である自動車製造会社であり,営利企業の至上命題は利潤追求である。
人工知能に倫理を持たせ判断させる必要などはなく,トロッコ問題においては,如何に法的リスクを回避できるかを最適解とする。
つまり,人工知能の振る舞いとして,たとえ事故が起きるような状況に入ったとしても,最も法的責任が軽くなる選択肢を選ぶようなアルゴリズムが選択されプログラムが書かれる。
法的責任を最も安価に回避できる行動が人工知能の倫理となるとする。
...しかしこの話を一般化すると、
人間一般が様々な(責任を伴う)判断を下す時、人工知能に委任してしまうシナリオがあり得ます。
「人工知能のせいだから、自分のせいではない」と
人々の無責任化が進んでいる時代ですから。
続きを読む
2022年12月31日
様々な概念、用語を検討したが、「満足化原理」がおそらく一番適切なのでは...?
探索を中止してしまう。
そういう満足化(妥協、思考停止)をしてしまっている様な人が多そうに見えるので...
現時点でそのように見えるのは例えばChatGPTである。もちろん、ChatGPTが、ではなく、それに触れる人々が、である。
...もっともそれは、ELIZA効果とAI効果のギャップなのかもしれないが、
それは結局、CMCにおいて人は他者を、人間をどのように認知しているのか? に帰結するだけである。
しかし、その満足水準自体が低下してしまっているのでは...? 人間の情報処理能力が低下してしまっているのでは?
あのようなシステムで人間を騙し切る事が可能だろうか?
多分完全には出来ない。
何故か? 肉体を持っていないから。
だから完全に人間である様に振る舞う事は出来ない。
人間があれを道具として使うなら? それはケンタウロス型であり、前提が変わってしまう。
...................
やはりチューリングテストなんかではなく
最低でもウォズニアックテストを突破出来なければいけなのでは?
続きを読む
目標水準を達成する一案を発見した時点で、それ以外の案の探索を中止してそれに満足してしまう。
探索を中止してしまう。
そういう満足化(妥協、思考停止)をしてしまっている様な人が多そうに見えるので...
現時点でそのように見えるのは例えばChatGPTである。もちろん、ChatGPTが、ではなく、それに触れる人々が、である。
...もっともそれは、ELIZA効果とAI効果のギャップなのかもしれないが、
それは結局、CMCにおいて人は他者を、人間をどのように認知しているのか? に帰結するだけである。
しかし、その満足水準自体が低下してしまっているのでは...? 人間の情報処理能力が低下してしまっているのでは?
あのようなシステムで人間を騙し切る事が可能だろうか?
多分完全には出来ない。
何故か? 肉体を持っていないから。
だから完全に人間である様に振る舞う事は出来ない。
人間があれを道具として使うなら? それはケンタウロス型であり、前提が変わってしまう。
...................
やはりチューリングテストなんかではなく
最低でもウォズニアックテストを突破出来なければいけなのでは?
続きを読む
2022年01月01日
何年か前に情報の消費について書いたんですが、今はもうそれどころではないですね。
動画やその他のメディア表現でもそう
メッセンジャーアプリだってそう
web上でのコミュニケーションに、(悪い意味で)過剰に情緒が伴い過ぎているのです。
フィルターバブルや知力の錯誤とも関連しますが
(悪い意味で)扇情的で新奇性があり、自身を拡張させる(ある種の疑似体験)感覚を味わえる、
喜怒哀楽を注入するコンテンツが大量消費される社会です。
そんな水物を有難がっても栄養になりませんよ。真に価値ある情報でないと
実態を...(物理)実体を軽んじていると言わざるを得ないです。
今日の人々の行動
感情消費(行動)はある種の依存症で、感情コンテンツは麻薬だとさえ言えてしまわないでしょうか?
これがより、先鋭化するとどうなるんでしょうか?
(とっくにそうなってしまっているとも言えますが)
続きを読む
動画やその他のメディア表現でもそう
メッセンジャーアプリだってそう
web上でのコミュニケーションに、(悪い意味で)過剰に情緒が伴い過ぎているのです。
フィルターバブルや知力の錯誤とも関連しますが
(悪い意味で)扇情的で新奇性があり、自身を拡張させる(ある種の疑似体験)感覚を味わえる、
喜怒哀楽を注入するコンテンツが大量消費される社会です。
そんな水物を有難がっても栄養になりませんよ。真に価値ある情報でないと
実態を...(物理)実体を軽んじていると言わざるを得ないです。
今日の人々の行動
感情消費(行動)はある種の依存症で、感情コンテンツは麻薬だとさえ言えてしまわないでしょうか?
これがより、先鋭化するとどうなるんでしょうか?
(とっくにそうなってしまっているとも言えますが)
続きを読む