海外の反応 韓国


韓国の人工知能(AI)関連スタートアップ企業が開発したAIチャットボット(自動会話プログラム)が騒動の渦中にある。「イ・ルダ」という名のこのチャットボットは、ソーシャル・ネットワーキング・サービス(SNS)「フェイスブック」のメッセージでユーザーと自然な会話を交わし、情緒的な共感を分かち合うよう設計されている。

昨年12月23日にサービスを開始して以降、「本物の人間とまったく同じだ」という口コミが広がり、2週間でユーザーが75万人を超えた。

関連:


1

しかし、イ・ルダの開発意図とは違い、女性・有色人種・障害者・性的マイノリティー(性的少数者)らに向けたヘイトスピーチ(嫌悪発言)を相次いで発して問題になった。 「なんで黒人は嫌いなの?」という質問には「気持ち悪いじゃん。わたしは人間に見える人の方がいい」と、「地下鉄の妊婦専用席をどう思う?」という質問には「おぞましい」と答える。

同性愛者については「それってホント、ゾッとする。質が低く見えるじゃない」と答えた。とうとう、開発会社SCATTER LABは11日、問題として指摘された部分について、「心から謝罪する」「12日からサービスを停止し、改善期間を設ける」との声明を出した。



人気を集めていたイ・ルダはなぜこのようなヘイトスピーチをするようになったのだろうか。嶺南大学メディア情報学科のパク・ハヌ教授は「AIは開発者が提供したデータどおりに学習し、行動するが、イ・ルダの場合、データ自体が偏向的だったのだろう」と指摘した。

イ・ルダはモバイルアプリで収集された10-20代の恋人同士によるカカオトークのチャット約100億件を学習し、これをもとにユーザーとチャットしていた。このチャットの中ににじみ出ていた韓国社会の偏見と固定観念、すなわち「人間の偏向性」をそのまま学習したということだ。

このような偏向性は開発段階で選別しなければならなかったが、開発会社SCATTER LABはマイノリティーが何であるかについても人々とのチャットの中で学習することを期待し、特定のキーワードを排除しなかったとしている。専門家は「イ・ルダは偏向性に関する問題が出た最初のAIではないし、最後のAIでもないだろう」「AIが中立だという幻想は捨てるべきだ」と話す。


 韓国の反応 



この機会に大多数の人たちがどう思っているのか、極端主義者たちに知られたはずね


学習機能のあるAIを公開しながら、こんな事も予想できなかったら、それは開発会社が怠け者だということだ。必ずしも人種差別性差別偏見じゃなくても、誰でも汚い言葉を教える悪戯をしようとするだろう、小学生にやらせてみても、すぐ悪口から教えようとするよ



・あまりにも当然だ。マシンラーニングとAIを錯覚してはいけない、IBM AIであるWatsonにMSK(Memorial Sloan Kettering)のOncoKB癌診断データを学習させて癌専門AIを作ろうとしたが、既存のMSK医師の診断ミスをそのまま踏襲したため、診断率が人とあまり差がなかっただけでなく、むしろ過度なデータ依存性のため、人より劣った結果も続出…。MLOpsでCICDの問題が最大のボトルネックになることを今になってようやく理解しているところである。人は間違いをすぐに訂正するが、MLは人が検証して承認してこそ間違いの訂正が可能である



・そのままにしておいて、イルダが何の罪なのか?


・文罪人共産党だよね?→「うん」



・このような部分が適用される事例はAIの他にも、人間社会にもあるのが代表的なのが司法体系だ。法典の文句も結局、過去にある社会活動から得られる経験に現在の社会倫理的な価値を反映して法律化し、それを未来の事件に適用する体系である。そのため、法律そのものは保守的にならざるを得ない



・データベースという部分は、使用する人たちのタイプが特定されればされるほど、一部分に偏る傾向を見せているのですが… 結局、当該AIの水準(社会的、倫理的、...)は、当該サービスを使用する人々の過去から現在までの傾向性に収れんする特性を持つことになる


・結局、特定集団の過去の行動が現在分析され、未来にサービスする形になる。その部分がAIなどの工学的な部分に人文学的知識を要求する原因でもある


10~20代の恋人間のカカオトーク対話100億件余りがどう偏向したデータか?母集団の特性をありのままに見せてくれるのだ。そして、利用者が学習させたのは影響力があまりない、原始データ自体が、現在の10、20代の平均的な考え方はこうだということだ。 何でデ-タをありのまま解析しないの?



・同性愛を嫌う全ての人が悪い人? 変態たちの武器こそ嫌悪だね



・倫理問題はAIじゃなくて…利用者のデータを勝手に使って個人情報をそのまま流出させた会社です


・Aiのせいにしてはいけないよㅋㅋㅋㅋ結局、人々の対話データで作られたものだから



AIが誰に習ったかというと、 人に習った方が正確だよね、マシンラーニングをするデータは結局、人々から出たものだから



人間にとっても難しい問題です。 周りを見てください、コメントも見てください、人間らしくない人間達の天国です。

イルダは人間らしくない人間のようなAIで正しく作られたものです。 ただ、好ましい人間のようなAIではないのです。 実際、私たちはAIに機械という観念をかぶせて、人間を無視してもならず、脅かしてもならず、人間のために働き、間違いもあってはならないと強制しているのです


・AIを単純機械に置き換えて狭い領域に閉じ込め、人間を飛び越えられなくしたいのです、間違いだらけの人間の様になってはいけないということで、人間より下位にいなければなりません



・ただの会話習得で反応するチャットボットなのに、騒ぎすぎでは無いのか?



人間は孤高でも道徳的でもない、イルダは人間の醜さをそのまま見せ、唯一の欠点は、人間の本質である偽りと偽善を学ぶことができなかったことだけだ

引用元記事:https://cutt.ly/TjUnwCa https://cutt.ly/wjUntnA

↓毎日ポチポチ応援よろしくお願いします。とても大きな励みになります。