人工知能に関する10の誤解、説明しますback

人工知能に関する10の誤解、説明します


続き・詳細・画像をみる

1:
Image:Getty
コンピューターはチェスや囲碁といったゲームだけでなく、株式市場でのトレーディングや、会話においても人間に匹敵し、凌駕すらする能力を持ちつつあります。コンピューターとそれを動かすアルゴリズムは進化の一途をたどっていて、ほぼあらゆるタスクにおいて人間を超えるのは時間の問題です。
ニューヨーク大学の心理学者・Gary Marcus氏いわく、AI周りで仕事をするほぼ誰もが、機械が最終的に人間を超えると考えています。「肯定的な人と懐疑的な人の唯一の違いは、タイムフレームだけです。」Ray Kurzweil氏のようなフューチャリストはそのタイムフレームを20?30年以内と考えていますが、何百年もかかるとする人たちもいます。
ただ懐疑的な人たちは、コンピューターに人間並みの知性を持たせるなんて技術的に不可能だとか、人間の脳には本質的に独自の何かがあると言うのですが、説得力がありません。我々人間は生物学的機械だとも言えますが、とにかく機械であることに変わりはなく、コンピューターと同じく現実世界に存在し、物理法則に従っているのです。
誤解2:
AMCのTV番組「Humans」では、AIの中に自意識が芽生えるのですが…。(Image: AMC)
機械の知性というと、一般的には機械が自我を持つように捉えられがちです。つまり、人間と同じように「考える」ということです。マイクロソフトの共同創業者・ポール・アレン氏は、批判的な立場から「人間の知的タスクを何でもできる汎用人工知能(artificial general intelligence)が存在しないのは、認知能力について科学的に理解されていないからだ」と主張しています。でもインペリアル・カレッジ・ロンドンの認知ロボティクス学者、Murray Shanahan氏は、知性と自我というふたつの概念を混同すべきでないと指摘します。
「自意識はたしかに魅力的かつ重要なテーマです。ただ私は、それが人間レベルのAIに必要だとは思いません」彼は米Gizmodoに語りました。「またはより正確に言えば、『意識』とはいくつかの心理的・認知的特性であり、それが人間においてはひとつに束ねられているのです」
自意識を構成する特性の一部がなくても、非常に知的な機械はありえます。いつか究極のAIができたとしても、その機械が世界を一人称で体験するとは限らないのです。Shanahan氏は、知性と意識をマシンにおいて組み合わせることは可能だが、それらが別々の概念であることは忘れてはならないと言います。
機械がチューリングテストに合格し、人間から見て人間かコンピューターかわからないとしても、だからって自我があるとは言えません。iOSのSiriを「Siriさん」とつい呼んでしまうように、先進的AIからは自我があるような印象を受けます。でも実際彼らは、意識という意味では石とか電卓と変わらないのです。
誤解3:
今年1月、フェイスブックのマーク・ザッカーバーグCEOは、AIを恐れることはないと言いました。いわく、それは世界に対してものすごく良いことをしてくれるからと。たとえば自動運転車や新薬開発といったことが可能になるという意味で、彼は半分正しいです。でも、AIが実現するもののすべてが善であるとは限りません。
非常に知的なシステムは、たとえば金融問題の解決とか、敵のシステムへのハッキングなど、特定のタスクについてすべてを知っているかもしれません。でもそれら特殊な世界以外については我関せず、というか、認識もしていません。たとえばグーグルのAlphaGoは、囲碁には強いかもしれませんが、それ以外の課題を解く能力も理由もないんです。
機械システムの多くは、安全性に関してあらゆる可能性に配慮されているわけではありません。たとえば、米国とイスラエル軍がイランの原子力発電所に潜入させるべく開発したStuxnetウイルスが良い例です。このマルウェアはどういうわけか(意図的か、偶然か)ロシアの原子力発電所にも伝染していたのです。
中東でサイバースパイ活動に使われたFlameウイルス。(Image:Wired)
また、中東でサイバースパイ活動に使われたFlameというプログラムもあります。StuxnetもFlameもAIではありませんが、将来的に何らかの自律性を与えられる可能性もあり、そうなったときにインフラに多大な損害を与えうることは簡単に想像できます。
誤解4:
1957年の映画「Invisible Boy」のスーパーコンピューター。
Surfing Samurai Robotsの創業者でAI研究者のRichard Loosemore氏は、AIによる終末シナリオのほとんどは自己矛盾していると言います。いわく、その手の話ではたいていAIに設計ミスがあり、そのせいで人類が滅亡させられるのだが、設計ミスがあるならAI自体機能しないはずじゃないかと。彼はまた、「AIにはプログラムされたことしかできない」と考える人はコンピューター黎明期に蔓延していた考えと同様、コンピューターの柔軟性を理解していないと言います。
オックスフォード大学の「人類の未来研究所」のPeter McIntyre氏とStuart Armstrong氏はそうした意見には反対で、AIは一般にプログラムで制御されていると言います。AIが失敗できないとも考えておらず、だから逆に、我々の期待を裏切るほど愚かだとも思っていないのです。
「スーパーAIとは定義上、あらゆる関連分野において、最良の人間の脳よりはるかに賢いのです」McIntyre氏は米Gizmodoに語りました。「それは、我々がそのAIに理解させるべく意図したことを正確に理解できるはずです。」McIntyre氏とArmstrong氏は、AIにはプログラムされたことしかできないとは考えていますが、十分賢くなれば、法の精神や人間の意図といったことまで理解するようになるだろうと言います。
McIntyre氏は、未来の人間の境遇はネズミみたいなものだと言います。ネズミには、食べたいとか住処が欲しいという欲求がありますが、その目的は家からネズミを追い出したい人間と対立します。「我々がネズミの目的を理解できる程度に賢いのと同じように、スーパーAIシステムも我々の要求を理解し、なおかつそれについて無関心でいられるはずです」
誤解5:
エクス・マキナにあったように、人間より賢いAIを抑えておくことは難しいはずです。
人間より賢いAIを作り出せるとしたら、我々はそれをいかにコントロールするかという課題に直面するはずです。フューチャリストもAI理論家も、そんなスーパーAIができてしまったらそれをどうやって制御するのか、または人間に対し友好的でいさせるか、答えを持っていません。
ジョージア工科大学のある研究者は、AIに物語を読ませることで人間の価値観や社会的コンセンサスを学ばせられるだろうと提案しています。でも実際、そう簡単にはいかないはずです。
「AIのコントロール問題解決策として、シンプルな方法がたくさん提案されてきました」と前出のArmstrong氏。たとえば、人間を喜ばせるべくプログラムしておくとか、単に人間の道具としてのみ機能させるとか、「愛」や「尊敬」といった概念をソースコードに埋め込むといった具合です。単純化された白か黒かという世界観を身に付けさせないために、知的・文化的・社会的多様性を受け入れるようプログラムすべきだという意見もあります。
アイザック・アシモフのロボット工学三原則はSFの中では素晴らしいですが、コントロール問題はそう簡単ではありません。(Image:Nova)
でもこれらの解決策は、人間の複雑な価値観をシンプルな言葉やフレーズやアイデアに無理やり入れこもうとしているだけです。たとえば、「尊敬」という概念を、一貫性があり、なおかつ行動に反映できるように定義するには、どうすればいいでしょうか?
「シンプルな解決策が使えないというわけではありません。その多くは研究対象として有用ですし、最終的な解決策に貢献しうるのです」とArmstrong氏。「でもそれらをあてにするためには、もっと発展させ、その意味を探求する必要があります」
誤解6:
Image:Matrix: Revolutions
AIが人間を滅亡させたがるとか、人間がAIをコントロールする方法を見つけられないとは言い切れません。AI理論家のEliezer Yudkowsky氏が言うように、「AIは人間を嫌いでも好きでもないが、ただ人間はAIが何か別のものに使える原子でできているだけ」です。
オックスフォード大学の哲学者Nick Bostromは、「Superintelligence: Paths,Dangers,Strategies」の中で、真のスーパーAIが実現できれば、それは従来のあらゆる人間の発明より大きなリスクになりうると書いています。イーロン・マスク氏やビル・ゲイツ氏、スティーブン・ホーキング氏なども、AIの危険性について警鐘を鳴らしています。
前出のMcIntyre氏は、スーパーAIが持ちうるほとんどの目的には、人間を排除する理由があると言います。
「AIは、消費者や環境、人間以外の動物にとってのコストを考えれば、ある企業の利益を最大化すべきでないと考えるかもしれません」とMcIntyre氏。「するとAIは、自身の動作が停止されることもふくめて確実に邪魔されないように、または目的変更されないようにする強い動機を持ちます」
McIntyre氏いわく、スーパーAIのゴールが我々自身のゴールと完全に一致しない限り、AIにとって、人間がAIを停止させるという選択肢を持つ理由はなくなります。そして彼らの知性が人間をはるかに超えているということは、我々にはそれに対しなすすべもないのです。
でも確実なことは言えませんし、誰もAIがどんな形をとるか、それがどういう風に人類を脅かすかわかっていません。マスク氏が指摘したように、AIは他のAIをコントロールし、規制し、監視すべく使われるかもしれません。または人間の価値観を埋め込まれたり、人類に対し友好的であるべく強制されているかもしれません。
誤解7:
Image:Star Trek The Next Generation
哲学者イマヌエル・カントは、知性は倫理と強く関連すると考えていました。神経学者David Chalmers氏は論文「The Singularity: A Philosophical Analysis」で、カントの考えを取り上げ、それをスーパーAIの進化にあてはめました。
それが正しいとすれば(略)、知性爆発が倫理爆発につながると予想できる。とすれば、その結果できる(スーパーAIの)システムは非常にインテリジェントであると同時に非常に倫理的でもあり、彼らは善良であると予想できる。
でも、賢いAIが善良でもあるという考え方は、どうなんでしょうか。Armstrong氏が指摘するように、人間にだって賢い犯罪者がたくさんいます。知性と倫理は人間の中でも相関しないのだから、AIにおいても同じことじゃないでしょうか。
「非倫理的に行動する賢い人間は、より賢くない同胞に比べて、より大規模な苦痛を生み出す傾向があります」とArmstrong氏。「知性は彼らに、より知的な悪である能力を与えただけで、善に変えたわけではありません」
McIntyre氏が説明するように、ある主体の目的達成能力は、そもそもそれが賢明な目的かどうかということとは関係がありません。「AIが賢くなるにつれてより倫理的になるような性質が与えられるとしたら、それは非常に幸運なことでしょう」と彼は言います。「我々の未来を決めるようなことにおいて、運に頼るべきではありません」
誤解8:
Image:Terminator
これは、ターミネーターをはじめとするハリウッド映画やらメディアのせいで広まってしまった、ありがちな誤解です。
スカイネットのようなスーパーAIが本当に人類を滅亡させるなら、それはマシンガンを発射するアンドロイドは使わないはずです。もっと効率よい方法、たとえば疫病を流行らせるとか、果てしなく自己増殖するナノマシン「グレイ・グー」をはびこらせるとか、大気を破壊するとか、そんなやり方で来るはずです。AIが危険なのは、世界がロボットに乗っ取られるという話ではなくて、それがいかに世界に自身の存在を広げていくかにあるのです。
誤解9:
精神(Mind)のいろいろなあり方。(Image:Eliezer Yudkowsky/MIRI)
たしかにSFには、いろんな作家やフューチャリストの予想が表現されてきましたが、今スーパーAIが提起している問題は、それらとは全然違います。それに人間とAIは本質的に全然違うので、人間にはその本質や形を知ったり予測したりすることができないんです。
SFは人間の娯楽のためにできているので、多くの「AI」は人間に似せてあります。「あらゆる可能な精神には、いろいろあります。人間の種の中でさえ、ある人はその隣人とはかなり違っています。でも人間の中でのバリエーションは、存在しうる精神すべてに比べれば、大したことではありません」とMcIntyre氏。
多くのSFでは話を面白くすべく、科学的正確性が犠牲になっています。だから、SFの中では、AIと人間の組織が互角に対立することが多くなっていますが、Armstrong氏はこう言います。「自我も喜びも憎悪もないAIが、抵抗すらできない人類を排除し、面白くもないゴールを達成する。いかにつまらないか、想像してみてください」
誤解1

続き・詳細・画像をみる


【エロ注意】このJKにしか見えないAV女優可愛すぎwwwwwwwwwwwwwwwwww

JK憧れシンデレラ体重は痩せすぎ?

あぁ、無情…ぼくたちは重力には結局勝てやしないんだね…。

外人に道聞かれたことある奴wwwwwwwwwwwwwwwwwwwwwwwwwwwwww

国民の9割が一度は勘違いする事wwwwwwwwwwww

パズドラレーダーの闇が深すぎる件

【画像あり】体中にシミのあるグラビアアイドルwwwwwwwwwwwww

たまに無性に食いたくなる物

【悲報】ニセコイ主人公、人気投票で前作キャラに負ける

ニコニコ超会議2016に「シオカラーズ」の出演が決定!「ガチ盆マッチ」「ガチ盆踊り」という企画も

任天堂「NX」のコントローラーとされた画像、偽物だった事が判明

パソコンを初めて買った時の失敗ってある?

back 過去ログ 削除依頼&連絡先