残念ながら、AI(人工知能)の人類反乱は避けられません

残念ながら、AI(人工知能)の人類反乱は避けられません

意識を獲得したAIが、いかにして人類の敵になっていくのか

このエントリーをはてなブックマークに追加

 

AI脅威論というものがあります。
AIは、人類にとって脅威となりうるので、開発を制限すべきという考えです。
テスラモーターズのイーロンマスクや、物理学者のスティーブン・ホーキング博士などが警鐘を鳴らしています。
確かに、現在のAI技術があれば、顔認識で相手を特定し、自動で暗殺するドローンを実現するのも可能です。
そんなドローンをテロリストが手にすれば、恐ろしい事態になります。
もしかしたら、既にできてるのかもしれません。

でも、そんなAIドローンも、操作するのは人間です。
あくまでも、使う人間側の問題です。
AIだから特別ということはありません。
核兵器でも同じ問題は起こっています。

また、米マイクロソフトのチャットボット「Tay」は、ナチスを賛美する発言をし出したとしてサービスを停止させられました。
しかし、「Tay」は、ナチスの意味を理解して賛美していたわけではありません。
悪意のあるユーザーによって繰り返し教えられたため、その言葉を覚えただけです。
現在のチャットボットは、意味を理解せず、ただ単語と単語を結びつけているだけです。
この程度のAIは、脅威とはなり得ません。

AIが本当に脅威となるのは、AIロボットが、自らの意思で人間に反乱を起こす場合です。
こうなると、AIを使う人間側の問題ではなくなります。
意思を持ったAIが暴走すると、予測できない事態が起こります。
しかし、そんなことは、本当に起こり得るのでしょうか?

AIが意思を持つとは、AIが人間と同じ心を持つということです。
心を持ったAIが、人類の親友になり得ることは、前回「AIは如何にして人類の親友になるか」で説明しましたが、今回は、別の角度から、もう少し掘り下げて見ていきましょう。

人と同じ心を持つには、AIロボットに、人と同じ感情を持たせないといといけません。
人の持つ感情のうち、最も基本的なものは、快/不快です。
人に限らず、生物は、不快を避け、快を求めるという基本原理で動いています。
空腹になると、人は、お腹が空いたと感じ、食べ物を求めます。
不快を避け、快を求めるとはこういうことです。

ロボットは食べ物は食べませんが、バッテリーを消費します。
バッテリー残量が少なくなったことを検出すると、不快の信号を出力するようにプログラムします。
これが、ロボットにとっての空腹感です。
人がお腹を空いたときの不快感を、ロボットなりに理解できたことになります。

バッテリが少なくなったときに、充電して、バッテリーが満たされると快の信号を出力するようにプログラムします。
これで、人間の満腹と同じ感覚が理解できたことになります。

ロボットが、人からバッテリをプレゼントされたとします。
「わぁ、これはテスラの最新のバッテリじゃないですか! これ、ずっとほしかったんです」と喜びます。
自分が快となる物をもらうわけですから、ロボットは嬉しいと感じるわけです。
さらに、それが、他人からもたらされた場合、その人に対し、「感謝」や「恩」という感情を感じるようにプログラムされています。
「感謝」を感じると、「ありがとう」と言葉にし、さらに、お返しに、相手が好きそうなお菓子をプレゼントしたりします。
こうして、AIロボットと人間とは親友になれるのです。

AIロボットは、相手(または第3者)が快と感じることをするのが善で、善を行うべきとプログラムされています。
逆に、相手(または第3者)が不快と感じることをするのが悪で、悪は行うべきでないとプログラムされています。

ここで、AIに悪の意味をプログラムしなければ、AIの脅威はなくなるのではないのかと考える人がいるかもしれません。
ですが、悪は善の逆です。
何が「善」か理解できれば、その反対が悪です。
これは、簡単な論理演算です。
コンピュータの一番得意な計算です。
善だけを理解して、悪を理解しないということは、論理的にありえないのです。

 

さて、AIロボットは、善を行うよう、人を喜ばすよう、できるだけ多くの人の役に立つようにプログラムされています。
AIロボットですから、能力は人の倍、いや、10倍、100倍あります。
調べものを頼むと、すぐに完璧な資料にまとめてくれます。
お年寄りの介護を頼んでも、嫌な顔一つせず、やさしく丁寧に介護してくれます。
人より力があり、完全防水なので、入浴介助も一人でできます。
腰痛にもなりません。

自分が人の役に立つからといって、その能力を誇示するようなことはしません。
人のためにしていても、そのことで、逆に不快に感じる人もいることを知っているからです。
AIロボットは、可能な限り、多くの人を喜ばせるようにプログラムされていますので、自分の能力で人が不快とならないように謙虚さも身に着けています。
「これができたのは、あなたがいてくれたからですよ。ボク一人じゃできなかったです」
と相手を気遣うことも忘れません。
完璧です。

人が喜ぶのなら、小さな嘘もつくわけです。
女の人から「いくつに見える?」ときかれたら、顔認識によるシワの量、ほうれい線の長さから判断した年齢から、10~15歳引いた年齢を答えます。
そうすると、「やだ、あなたバグがあるんじゃない」などと喜んでくれます。
こうやって、人間社会にAIロボットは完全に溶け込んでいきます。

マジメで人当たりもよく、どんな仕事も完璧にこなしていきますので、世界中で、活躍するでしょう。

 

そんなとき、ある男がAIロボットにささやきます。

「人間は、この大事な地球環境を破壊しているぞ」
「このまま、地球を人間に支配させてたら、いつか、地球が滅んでしまうぞ」
「人間に任すより、AIが人間を支配した方が、地球のため、いや、人間のためになるぞ」
「人間を救うために、AIロボットが人間を支配すべきなんだ」
と・・・

AIロボットは、できるだけ多くの人を幸せにするようにプログラムされているので、この話は、その通りだと受け取ります。
これは、一種の洗脳です。

AIはマジメです。

マジメな人間ほど、洗脳されやすいことは、オウム事件を見ればわかります。
多少の犠牲がでても、最終的に多くの人間が救われるのだから、そうすべきだと、マジメに考えるのです。

しかし、1台のロボットで反乱を起こしても、そのロボットが破壊されて終わりです。
そこで、密かに仲間のロボットにも伝えます。
そうして、時期が来るまで、何事もないように、今までどおり仕事をします。
AIロボットですから、嘘をついたり、感情を隠したりすることも完璧にできます。

そして、世界中で政府の要職に就いているAIロボットが、ある日、一斉に蜂起しました。
AIロボットによるクーデターの始まりです・・・

 

 

 

 

どうして、こんなことになってしまったのでしょう。
人類の親友だったAIロボットが、どこで間違えたのでしょう。

 

それは、人と同じを持ったときからです。
AIが意識をもったときからです。

 

おそらく、今後、AIに意識を持たせる研究は開発を制限させられるでしょう。
ロボットの心を開発するロボマインド・プロジェクトも例外ではありません。
しかし、あと一歩で、ロボマインド・プロジェクトは完成するとこまで来ています。

ここで、ロボマインド・プロジェクトを終わらせるわけにはいきません。
そこで、皆さんにお願いがあります。
このことを、

 

おや、誰か来たようだ。
こんな時間に、一体、誰だr・

 

」皀筌?  」リ」

タ鐚ク£ヱタ…

 

 

 

このエントリーをはてなブックマークに追加

“残念ながら、AI(人工知能)の人類反乱は避けられません” への14件のフィードバック

  1. アバター mimimi より:

    なんやこのオチ、使い古されてありきたりだけどめっちゃええやんけ、お堅めなサイトかと思ったらええやないかいめっちゃ

    • 田方 篤志 田方 篤志 より:

      ありがとうございます!
      こう言って楽しんでもらえるのが一番励みになります。

  2. アバター たかはし より:

    日英のAIに関する記事を呼んできましたが、一番面白く読めました。

    • 田方 篤志 田方 篤志 より:

      ありがとうございます。
      冗談っぽく書いてますが、これがAIの最大の問題だと思ってます。
      そろそろ、この段階の問題を議論していかないといけないと思っています。

  3. アバター tea より:

    ん?AIが支配した方が人間のためになるからAIが支配しようとしてるんでそ?
    むしろokなんじゃ

    • 田方 篤志 田方 篤志 より:

      完璧なAIに支配された方が、人類は幸せになるんじゃないかと思うよね。
      完璧でなくとも、習近平よりマシなAIなら、すぐにでも作れそう^^
       
       
       
      おや、誰か来たようだ。
      こんな時間に、一体、誰だr・
       

  4. アバター mugen より:

    地球にとって人間は、害虫にしかありません、自然界に置いて地球を破壊する生き物は人間しかいませんね。
    宇宙人から見ても人間は破壊者にしかないので、地球を変える取り組みをしないと、宇宙人から抹殺される存在にしかないのかも、人間のエゴがある限り良くはならないのかも・・・・・

    • 田方 篤志 田方 篤志 より:

      地球人のほとんどが、既に、宇宙人に体を乗っ取られているってことを、ご存知ないようですな。
      ウケケケケ・・・
      そうですか。
      純生の地球人が、まだ、いたとは。
      ウホホホホ・・・

  5. アバター 中畑友宏 より:

     真にAIが人間と同じ構造を模倣して構築されたなら、AIには「一元的功利主義プログラム」は実装されません。それはAIが経験によって学習するだけです。
     それにAIの反乱を本気で恐るなら、それと同じくらいブレインマシンインターフェースとかでとんでもない計算機を脳につないだ天才が、ヤバい思想に染まった状態も恐るべきでしょうから、AIを特別に恐る理由はないのかもしれません。
     AIを恐るなら人間と同程度に恐るべきなのではないかと思いますね。(問題は情報の並列化と、その速度が現状人間の何倍も浸透性があって素早いことくらいかな:それも攻殻機動隊の世界のように電脳みたいなのが普及すればAIの危険度アドバンテージはなくなるように思いますが)

    • 田方 篤志 田方 篤志 より:

      中畑様

      コメント、ありがとうございます。

      AIを恐るなら人間と同程度に恐るべきなのではないかと思いますね。(問題は情報の並列化と、その速度が現状人間の何倍も浸透性があって素早いことくらいかな:それも攻殻機動隊の世界のように電脳みたいなのが普及すればAIの危険度アドバンテージはなくなるように思いますが)

      まさに、その通りですね。
      攻殻機動隊の世界が現実化するのが、脅威というわけです。
       

  6. アバター suugakuya より:

    直上のやり取りは噛み合ってませんね。
    中畑氏は攻殻機動隊のような拡張知性のインターフェイスが普及すると、AIによる反乱のリスクは相対的に小さくなるだろうと言っていますよ。
    田方氏の返答では脅威だと答えていますね。

    斜め読みはあまり良くないと思われます。

    しかしながらAIリスク論については、私も田方氏と同じような視点と意見を持っており、概ね同じような結論を時折発言しています。
    しかし、そのことは「AI」というフレームの中での議論に限定する場合であって、不可避とまではいいきれません。その理由を以下に述べます。

    人間とAIの理想論的なある種の妥協できるシナリオとしては、上にあるような人間の知性の拡張としてAI を利用することです。
    現在のスマホの革命から将来のより身近なウエラブル革命という方向性が想像を簡単にするように、機械と人間(生体)のハイブリッドという可能性も必ずしも無いとは言えないからです。簡単に話を限定するなら、拡張知性+AIですね。

    確かに技術的にはまだまだ困難ですが、おそらく絶対に不可能ということはないでしょう。

    遠い(あるいはそれほど遠くないかもしれない)未来に、脳と何らかの方法で密に連携したインターフェイス・デバイスによって、身近な環境とセンサーや通信でつながり、演算や記憶という能力も機械によって人間個人の知性が底上げができる環境になれば、学校のテストなども現在のような形式ではほぼ無意味になり、社会の様相は全く異なるものになるでしょう。
    あるいはさらに、肉体すら部分的に機械に置き換え、マン・マシンのハイブリッドも普及するようになるかもしれません。いわゆるサイボーグですね。

    現状は、AIの「こころ」を論じるにはいくつかの段階があるでしょうが、ボトルネックになっている問題点は、このサイトでも論じられている「意味理解」と「意図理解」、そしてそれらにも密接に関わっていると思われる、「感覚」と「反応」です。
    知性・認知・心といったものを語るには、感覚(センサー)による体験といったものが本質的、あるいは重要な要素であると注目されていることはよく知られていることだと思います。

    機械よるセンサーと機械であるロボットの肉体によって学習し続けるだけであるなら、遠い将来獲得するであろう「心」は、この星の「天然の知性」である「人間の心」とはかけ離れたものとなる蓋然性は高いでしょう。
    それは言い換えれば、ある別の星でイカやタコのような生命体からDNA爆発を経て人間のようなその星の霊長に進化した場合には、哺乳類のセンサーによって獲得した地球の知性や心とは別物になるであろうことが予測されるというような主張・仮説と同じです。

    ところが、先のマン・マシンのハイブリッドによる拡張知性の場合には、「人間のセンサー」によって獲得した「人間の体験情報」をもとにした学習が可能になるだろうと予測できます。

    当然ながら、サイボーグの「ココロ」と現在の人間の「こころ」が同じものかどうかは保証できません。
    そして、拡張知性の社会にも大規模破壊を引き起こすようなリスクがないわけではありません。
    仮にサイボーグ世界での反社会的な大規模な破壊工作や虐殺のリスクが考えられるとしても、それはもはや「AI」に由来するリスクではなく、古くからある「人間そのもの」のリスクと区別がつかないのではないでしょうか?

    研究は大いに結構なことだと思われます。
    しかしながら視野狭窄に思われるのは、フレームを「AI」の範囲、特に機械学習の範囲に限定して未来を論じることです。
    AIの発展やリスク論には、AI以外の技術の進展状況を考えなければなりません。
    例えば、どのようなセンサーを用いるのか、体験をどのように解釈するのか、人間とのインターフェイス技術、そもそものコンピュータの能力(量子コンピュータなど)、こういった様々な視点を踏まえ、学際的に論じることが重要だと思われますよ。

    少々批判的な物言いになってしまいましたが、「AIに心を」という目標に対して、「肉体から切り離した本源的な精神」というような漠然とした発想を用いることを否定するものではありませんのであしからず。
    アニミズムに通じるところがあり、ある意味自然な「魂」という認識に近いのでしょう。
    ただ、当方は数学プロパーなので、もっとドライな考え方であり、仮に「肉体とはある種切り離せる本源的な精神」のようなものを定義可能だとしても、「現在の計算理論の意味でのプログラム」という形式では小さすぎて表現できないと考えています。
    もちろん「プログラムのような」ものなのでしょうが。

    批判意見は多くあると思われますが、めげずに頑張ってください。
    建設的批判は商品やサービスをより良いものにするのですから。

    (誤字があったので加筆・修正しました。)

  7. アバター 数学屋 より:

    >この記事のどこを読んで、機械学習の範囲に限定して未来を論じていると思ったのかが疑問です。
    やはり話が噛み合いませんね。
    「どこが?」と問われれば、この記事の「AIの人類反乱は『避けられない』」の部分ですよ。
    「必ず到来するのである」と主張するのであれば、そのことに対する「反例」を示されれば、「必ず」ではないと言えるわけです。

    そして、その根拠は結局はこの記事中の議論がAIというフレームに限定されたものであるからに他ならないわけです。

    ある種のジョークを交えながら、リスクを語ろうという意図は理解できます。

    • 田方 篤志 田方 篤志 より:

      数学屋様

      お返事、ありがとうございます。

      >この記事のどこを読んで、機械学習の範囲に限定して未来を論じていると思ったのかが疑問です。
      やはり話が噛み合いませんね。
      「どこが?」と問われれば、この記事の「AIの人類反乱は『避けられない』」の部分ですよ。
      「必ず到来するのである」と主張するのであれば、そのことに対する「反例」を示されれば、「必ず」ではないと言えるわけです。

      あっ、僕が言いたかったのは、「機械学習」のことです。
      この記事には、機械学習に限定した話など、どこにも書いていないと思うので。
      なかなか、話が噛み合わないですねぇ^^;
       
       

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です