IT原理主義

2020年01月01日

人工知能技術運用上の留意事項 

「人工知能は常識を理解しません」
「人工知能はユーモアを理解しません」
「人工知能は感情がありません」
「人工知能は欲求がありません」
まず、それらは無限後退、循環論法に陥る主張ではないですか?

...常識とは何でしょうか? 何が常識であって、何が常識ではないのですか?
それらを、一意的に判定する方法がありますか?

ユーモアとは何でしょうか? 感情とは何でしょうか? 欲求とは何でしょうか? 
言葉の意味を定めないと、議論になりません

その定義は果たして普遍的な定義でしょうか? あなたが、その場その場で恣意的に定義を都合が良いように決めるのではありませんか?


...
「人によって変わると思います。同じ物でもそうだと思う人と思わない人がいます。」
だったら、前述の命題自体が成立しません。 ●●を普遍的に決めないなら、有るも無いも在りません。





...
「人工知能は理由を説明出来ません」
「人工知能の推論を解釈出来ません」
人間でも何となく根拠も無く意思決定を下す事ばかりなのに?
××だからあなたの判断、あなたの意志、あなたの思考は間違っているのではないか?と何回も詰問されたら、「いや、きっと〇〇だ」と、根拠も示せないのに自分の確信に固執するのではないのですか?
あなたは、本当に理由を説明出来るのですか?

続きを読む

tak_tak0 at 12:00コメント(0) この記事をクリップ!

2019年01月01日

人工知能の哲理、AIと知性



人工知能に関する疑問と言うかある種の予想、予言の様な内容に関連する私の回答は、もう既に書いてしまったのですが
未だ言及してない問題は、...人工知能が心を持つのか?自由意志を持つのか? そもそも人工知能は考える事が出来るのか? とか、その様な事です。
しかしそんな事を考えるのはほとんど素人だと言ってしまって良いはずです。
なぜなら...そのような話は、哲学的にとっくに考えつくされてきたからです。 何番煎じだか分らないんです。 勉強が足らないか、哲学的思考が足らない訳です。

人工知能が自分より優れた人工知能を創り出す??? (技術的特異点|singularity) それについては3年も前に書いてしまったのでした。

そうでなくても、人工知能に仕事を奪われる??? みたいな話ついても、2年前に書いたのです。

何らかのパラダイムシフトとは、基本的には後から、あれがそうだったのかと気付くようなものですから、その意味においては、AIによるイノベーションは未だに全然起きていないと言えるのかもしれません


単純な問題を設定しましょう

・人工知能は心を持つのか?

...これは哲学的には、そもそも問題が問題になってないので、答えを考える以前だと思います。
そもそも心とは何か? 何が心で何が心ではないのか? どうやって心である物とそうでない物を見分けるのか?  もし、厳密に区別することが出来ないなら、そもそも心の実在自体が疑わしいのではないですか?
同様に、
・そもそも人工知能とは何か? 何が人工知能であって何が人工知能ではないのか...

同じ言葉は、絶対必ず同じ意味(特にこのような場合に限定すると「自分」が知っている意味、「自分」に都合が良い意味)であるに決まっているという根拠の無い確信を持ってしまう人が多いので、このように釘を刺しているのです。

以下の議論では実はそれは厳密ではなくても良いので、言葉の定義は無矛盾でありさえすれば好き勝手に設定してしまって良いですが(しかしそんな人は、気付かずに矛盾する不完全な定義を設定してしまう事が多いですが)
続きを読む

tak_tak0 at 12:00コメント(0) この記事をクリップ!

2018年08月15日

ディープ・フェイクによる真贋性の毀損




情報のinformantを(技術的には)保証する方法は、実際にはあります。 情報自体の真実性の保証ではないですが。

Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security
Chesney bobby  University of Texas School of Law
Danielle Keats Citron  University of Maryland Francis King Carey School of Law
Available at SSRN: https://ssrn.com/abstract=3213954 or http://dx.doi.org/10.2139/ssrn.3213954

著者は肩書きの通り、法曹の人なので、そのような視点の内容である事は踏まえておくべきかもしれません。
Harmful lies are nothing new. But the ability to distort reality has taken an exponential leap forward with “deep fake” technology.
The marketplace of ideas already suffers from truth decay as our networked information environment interacts in toxic ways with our cognitive biases. Deep fakes will exacerbate this problem significantly.
The risks to our democracy and to national security are profound as well.
.................
This has given rise to the label “deep fake” for such digitized impersonations.
I. TECHNOLOGICAL FOUNDATIONS OF THE DEEP-FAKES PROBLEM
C. Fueling the Fire



このセクションで言及するように、認知バイアスに基づいたネットワーク現象が、炎上に油を注ぎます
情報カスケードとフィルターバブルが、これを可能とします。
まず、情報カスケード  は、他人が知っていることを信用する人間の結果です。

毎日のやり取りには情報の共有が含まれます。人々は全てを知ることができないので、自分の知識と矛盾する情報だとしても、しばしば他人が言うことに頼って、信用する事になります

情報カスケードは、人々が自分の情報に十分な注意を払うのを止め、他の人が知っていると仮定したことにあまりにも頼っている場合に生じます

彼らは、情報を共有する事で問題を複雑化しますが、彼らは価値あるものを学んだと信じています。 そのサイクルが繰り返され、カスケードが強化されて行きます。
The Russia covert action program to sow discord in the United States during the 2016 election provides ample demonstration.


.................



例えば2006年から2010年にTwitterで共有されたニュースを調べた研究でファクトチェックサイトを利用して、情報の真贋を確認した所、流言と捏造情報の方が、真実よりも10倍も早く流通しました。嘘の方が正確なニュースよりもリツイートされる確率が高かったのです

しかもフェイクニュースの普及は、リツイートボットのせいではありません。むしろ、不正確な情報源をリツイートする人が多いので、より速く広がるのです
虚偽はより斬新に見え、真実ニュースよりも感情を掻き立てるので、フェイクニュースの方がより強い牽引力があるのではないかと仮説を立てました。

社会科学の研究が示すように、人々は肯定的な情報よりも否定的な情報を信用して記憶する傾向があります。

Fake tweetsは、より嫌悪感を引き出させる傾向があり、accurate tweetsは悲しみと信頼に関連する言葉が含まれていました。
人間は自然に否定的情報を広めようとするので、 (インターネット)自動化はその傾向をより、悪化させています。
Bots were responsible for a substantial portion of political content posted during the 2016 election.


Facebookのユーザーの調査では、ファクトチェック記事を読んでいる人は元からフェイクニュースを見ていませんでした

ですから、フェイクニュースを広める人は、元からそういう人であるとも言えるはずです。

まとめると、
共通の認知バイアスとソーシャルメディア機能が、ウイルスの拡散と真実の崩壊の背後にあります。
ウィルスとは、社会科学の分野では、(有害)嘘情報の事をウィルスと呼ばれる事があります。 それが、ウィルスの様に広がるからです。
続きを読む

tak_tak0 at 00:10コメント(0) この記事をクリップ!
サイト内検索
にほんブログ村 科学ブログへ
にほんブログ村
adsense
Archives
amazon
blogchart
QRコード
QRコード
Recent Comments