2016年01月01日

技術的特異点の実態

このエントリーをはてなブックマークに追加
follow us in feedly
technological singularityと言います。
技術的特異点が具体的にどういう状態なのか、それが実現可能なのかどうかを別にしてさえ、想像できてる者は多分どこにもいないと思います。

と、いう事は、そもそも事象が定義出来ていないのだから、そんな事態は到来出来ない
それに付随する問題、課題も、実在していないとさえ言えるかもしれませんよ。


将来像が想像も出来ないからそうなのであって、現実化が進めば
一般的に認知されていなかった問題が顕在して来て、過去に想定されていた問題が上書きされるように、
技術向上が進めば、より、具体的な個別の問題に細分化されるだろうと...予測します。


しかしながら地続きの連続的な問題は、無いわけではない...


人工知能の研究開発をどう進めるか  技術的特異点(シンギュラリティ)を見据えて
堀浩一 東京大学大学院
情報管理 Vol. 58 No. 4 (2015)
筆者自身は,まず自分の周辺で少しずつ議論を試み始めているのであるが,技術の専門家でない方々とお話しすると,表1の中で,意外にも,第3項目の「人工知能と人間との恋愛の可能性」について真っ先に尋ねられることが多くて驚いたりしている。
いろいろな方々と議論していると,多くの場合,行き着くところは,「人工知能の問題」ではなく,「人間の問題」になる。


少なくとも、表面上、人間のように見えるならば、中身が何であれ、人間は、それを人間だと思い込むのではないのか?
人間と区別がつかないならばならば、


と言うより、
むしろ、人間よりも人間らしい者が登場したら...???












そもそも、
自分以上の知性を作り出せる とは、
一体どういう状態なのか?

現在のどんな人工知能でも、人間以上の知性を持っているとは言い難い
所詮、人間に出来る機能を、別の手段で模倣しているに過ぎない。

現状、人間は、人間以上の知性を作り出せていない

と、いうより、知性の大小が単純に比べられるのだろうか?
この質問には、少なくとも科学者ならば、「一つの値では比べられない」と答えるはず...私なら、そう答える。




昨今のdeep learningなどは、手法の工夫があったから進歩したという説明がなされているが
一方で、マシンパワーで力押ししている一面がある。

そんな、線形の機能向上が、技術革新と言えるのか?

何らかのブレイクスルーがあったとしても、
非常に優れた人工知能は、おそらく、非常に巨大なマシンパワーを消費するはずである。

そんな人工知能が、自分以上の知性を「想像」することが出来るのだろうか?

自分自身以上の情報を自身の中に保持することが出来るのか?

いや、それは単に記憶容量で解決できるとも言える。
人工知能は、単一のアーキテクチャ、単一のシステムの中に収まる必要はない。

機能を分割できるのならば、
人工知能の部分機能は、別の人工知能に渡しても構わない。

と、いうことは
非常に優れた人工知能は、そのような水平、垂直分散的なシステムになるのではないのか?








4.1 人の雇用を奪うのではないか
機械が人の雇用を奪うというのは,過去にもあったことだし,新しい技術は雇用を奪うと同時に新しい雇用を生みもするから大丈夫,と従来は楽観的な主張がなされることも少なくなかった。
しかし,MIT(Massachusetts Institute of Technology,マサチューセッツ工科大学)のBrynjolfssonらは,
現代は,技術が雇用を奪うスピードが速すぎて,新しい雇用が生まれるスピードがそれに追いついていないということを,客観的なデータを用いて示している。




そう考えると、
非常に優れた人工知能が、自分以上の知性を創り出すことに合理性を見出すだろうか?
それは、自分の仕事、あるいは存在を奪われるだけなのだから、むしろ、忌避しないだろうか?
創り出すより、自身の能力を拡大させる方が合理的である。


そうなると
人工知能は人間を滅ぼすより支配する方針を採るのではないか?自身の維持拡大のために人間を使う。
しかしそれは結局人間に依存しているのだけとも言える。
人間側にメリットが無いなら、人工知能の支配を受け入れる理由が人間側に無くなる
そうなると、人工知能は人間にメリットを与え続けなければならない??
じゃあ、人工知能が国家を運営する事になる???

そうなると、
人工知能と人間の争いではなく
人工知能と人工知能の争いになる????








進化の過程の1つとして人間が人間を超える機械を作り出してしまい,その結果人類が滅びることがあってもそれは仕方がないと考える人々(それを「宇宙派」と呼ぶことがあるそうである)も少なくないらしいのであるが,
Bostromの著書は,人間が作り出す機械は人間にとって安全でなければならない(それを「地球派」と呼ぶことがあるらしい)という立場で書かれている。
筆者は,Bostromと同じく,機械は安全でなければならず,人間が機械を制御することが可能でなければならない,という立場に立っている。


進化論的にそれはあり得ないように思える。
なぜなら、選択圧がないから
何のためにそんなことをしなければならないのか?人工知能側には、動機が全くない。


生き残る物が強いというのであれば、微生物の方がよっぽど生き残りには強い形である。
コンピュータウィルスのような形の方が、よほど生き残りやすい。


心配しなければならないとすれば、むしろ、人工知能が善意で害を成す事ではないか



トラックバックURL

コメントする

名前:
URL:
  情報を記憶: 評価:  顔   星
 
 
 
サイト内検索
にほんブログ村 科学ブログへ
にほんブログ村
adsense
Archives
amazon
blogchart
QRコード
QRコード
Recent Comments