次世代AIの提言 AIの意識×言語の意味理解 Next ChatGPT【全文掲載】

次世代AIの提言 AIの意識×言語の意味理解 Next ChatGPT【全文掲載】

このエントリーをはてなブックマークに追加

クラウドファンディング用にロボマインド・プロジェクトの全体像を解説した動画を撮りました。
動画と、全文を掲載します。

 

こんにちは、ロボマインドの田方です。
今回は、プロジェクト・エデンの全貌についてお伝えしようと思います。

この動画を見る方は、既に、アニメ『エデン』をご覧になってると思います。
まだ見てなくても、分かるように解説しますので、それは大丈夫です。

ところで、『エデン』は面白かったですか?
よくある美少女AIが出てくるアニメと思ったら大間違いです。
あれは、現在、進行中のプロジェクトを描いたリアルな話です。
それじゃぁ、『エデン』のテーマは何でしたか?

そう、心ですよね。
コンピュータは心を持てるのかってのがテーマです。

たぶん、誰でも一度は考えたこと、あるんじゃないでしょうか?
心を持ったロボットとか、昔からアニメやSFのテーマになってます。

人型ロボットは、今や、かなり人間に近づいてきています。
たとえば、最近のボストンダイナミクスの人型ロボットは、人間以上に機敏に動きます。
それから、これ、分かりますか?
これ、3DCGのヴァーチャル・ヒューマンなんですよ。
もう、人間と見分けがつかないでしょ。

見た目に関しては、ここまでできてるんですよ。
じゃぁ、後、足りないのは何です?

そう、「心」です。
心だけ、未だにできてないんですよ。

そもそも、コンピュータで、心って、作ること、できるんでしょうか?
結論から言います。
できます。
じゃぁ、どうやって作るんでしょう?

『エデン』を思い出してください。
もこみは、心を少しずつ手に入れていきましたよね。
それを、5段階の心理レベルで表現しました。
そして、最後にもこみが手に入れた感情、心理レベル5は何でしたか?

そう、「愛」ですよね。
最終目標は「愛」です。

じゃぁ、スタートは何でしょう?
これは、『エデン』では描かれていませんでしたけど、それは、意識です。
このプロジェクトは、コンピュータにいかにして意識を宿らせるかってところから始まります。
コンピュータで作った心、それが、マインド・エンジンです。
そして、マインド・エンジンが愛を獲得するまでを、詳しく説明します。

予想してた話と違いましたか?
はっきり言いますよ。
このプロジェクト、ちょっとぶっ飛んでます。
今まで、誰も聞いたことのない話ばかり出てきます。
覚悟して聞いてくださいよ。

それじゃぁ、まずは、今回の話の概要です。

大きく、前半と後半に分かれます。
前半で、現状の問題を取り上げます。
まずは、現在のAIです。
最近話題のChatGPTの課題です。
それから、そもそも、言葉の意味を理解するとはどういうことかって話をします。
シンボルグラウンディング問題っていう、意味理解の本質の話をします。
それから、意識科学や心の哲学の話もします。
デカルトの心身二元論とか、「意識のハードプロブレム」の話を取り上げます。
それから、自由意志です。
現代科学では、自由意志は存在しないって話をします。

そして、重要なのは後半です。
以上の問題を、たった一つの理論で解き明かしていきます。
それが、「意識の仮想世界仮説」です。
そして、それを基に作った心のシステムがマインド・エンジンです。
『エデン』では、もこみの心として描かれてましたよね。
それから、心です。
善悪といった倫理観から、愛といった心理まで、どうやって実現するかについて、詳しく解説します。
今回の話を最後まで聞けば、人間とは何か、心とは何かって疑問が絶対出てくると思います。
本当に、マインド・エンジンは、心といっていいのかって。
それは、最後まで見て、一人ひとりが、じっくり考えてもらったらいいと思います。

それでは、まずは、現在のAIから始めます。
AIに興味がある人なら、ChatGPTって聞いたことがあると思います。
高精度な文章を自動生成できるAIです。

僕も使ってみたんですけど、たしかに、これはすごい技術です。
分からないことを、会話しながら教えてくれます。
たとえば、「野菜炒めの作り方を教えて」って言ったら、すぐに教えてくれます。

ただ、使ってると、普通の会話とはちょっと違うなぁって違和感も感じました。
これとよく似た会話、どっかで見たことあるなぁ。
そうや、あれやって思い出したものがあります。
それは、失語症です。

失語症には、ウェルニッケ失語とブローカー失語の二種類があります。
ブローカー失語は、言いたい言葉がさっとでなくて、うまくしゃべれない障害です。
一方、ウェルニッケ失語は、流暢に話せて、一見、何の問題もないように見えます。
たとえば、Aさんの場合、こんな感じです。

「お体の具合はどうですか?どこか、悪いとこはないですか?」
「そうですねぇ。特に、どこも悪くないですねぇ」
「家族はいますか?」
「はい、いますよ」
「何人ですか?」
「えーと、三人です」
「お母さんはお元気ですか?」
「元気ですよ」
「お母さんはいくつになられましたか?」
「30、いや、33かなぁ」

特に、何も問題なさそうですよね。
でも、この人は、じつは、右半身が麻痺してて、寝たっきりなんですよ。
とても、「悪いとこはない」ってもんじゃないです。
家族も、本当は4人です。
お母さんは、とっくに亡くなっています。
Aさんは56歳ですから、お母さんが33歳のはずがありません。

つまりね、この人は、こう聞かれたら、こう答えるって会話のパターンで答えてるだけです。
つまり、言葉の意味を理解していないんですよ。

じつは、ChatGPTがやってるのも、これと、ほぼ同じなんですよ。
ChatGPTがどうやって文章を生成してるかっていうと、単語の並びから、次の単語を予測してるんです。
「日本 の 首都 は」って来たら、次は、「東京」って予測するんです。
こういったことを、大量の文書から学習してます。
つまり、意味を理解してるわけじゃないんですよ。
何も考えずに、単語の並びのパターンで、答えてるだけなんですよ。

こうやって、大量の文書から学習して、次に来る単語を高精度に予測する言語モデルを大規模言語モデルって言います。
ChatGPTとか、GoogleのLaMDAとか、今のAIは、大規模言語モデルが大流行りです。
今後は、何か調べるとき、「もっと詳しく教えて」とか、「ほかに例はないの」って会話しながら調べることになるでしょう。
今の検索エンジンは消えるかもしれません。
まちがいなく、世の中は変わると思います。

ただ、大規模言語モデルの限界も、既に見えています。
それは、できることは、言葉の意味を理解しなくてもできることだけです。
面白い映画を教えてって聞いたら教えてくれます。
でも、「あなたが一番好きな映画は何?」って聞いても、「私には、好きって感情がありません」としか答えません。
適当に、「これが好きです」と答えさすことはできても、本当に好きと感じてるわけじゃありません。
言葉の意味を理解してないって、こういうことです。
検索エンジンの代わりにはなっても、友達の代わりにはなれないんです。

じゃぁ、言葉の意味を理解させればいいってなりますけど、これが、一筋縄ではいかないんですよ。
言葉の意味理解って、今まで多くの人が挑戦してきて、全て失敗に終わってます。

1980年代に第二次AIブームというのがありました。
その時のAIは、AならばB、BならばCといったルールを使って推論していました。
この時に使うのが、意味ネットワークです。

意味ネットワークは、こんな風に、イヌは哺乳類であるとかって概念関係を示してあります。
それから、哺乳類は頭部と脚部を持ってるとか、頭部は目を持ってるとかって、何が何を持ってるって関係も示してあります。
これって、まさに、意味関係を示してありますよね。
これを使えば、「イヌは目を持ってますか?」って質問に答えることができますよね。
これなら、意味を理解してるって言ってもいいんじゃないでしょうか。

ところが、これじゃ、意味を理解したことにならないんですよ。
指摘したのは、認知科学者のステーブン・ハルナッドです。
ハルナッドは、シマウマを例に挙げています。
たとえば、シマウマというのを見たことがない人がいたとします。
そこで、シマシマの模様のある馬だって説明したとします。
それで、動物園に行って、初めてシマウマを見たとしましょう。
そしたら、その人は、「あれがシマウマや」ってわかりますよね。
次は、これをAIで同じことをしてみたとします。
さっきの意味ネットワークを使って、「シマの模様をもってる馬」とかって登録したとしましょう。

さて、そのAIを搭載したロボットを動物園に連れて行って、シマウマを見せたとしましょう。
さて、シマウマをみて、「シマウマだ」ってわかるでしょうか?
分かりませんよね。
だって、そのAIが理解してるのは「シマ」って文字と「馬」って文字が「模様」って文字で関連してるってことだけですから。
実際の馬も縞模様も理解してないんですから。

ここ、もう少し突っ込んで考えてみます。
現実世界には、馬とか、縞模様があるわけです。
それを指し示して馬とか縞模様って名前を付けたわけです。
つまり、「馬」とか「縞模様」って単語は一種の記号です。
そして、意味ネットワークは、記号同士を関連付けてるわけです。
いくら記号同士を関連付けても、現実世界の馬や縞模様には結びついていないんです。
つまり、記号が現実世界に接地していないわけです。
これを記号接地問題と言います。
またの名を、シンボルグラウンディング問題と言います。

同じことは、大規模言語モデルでも言えますよね。
大量の文書から学習して、単語の並びのパターンをいくら学習しても、単語は現実世界に結びついていません。
AIにとって「リンゴ」の意味は、「バナナ」って単語の近くにある確率が何%ってことです。
そんなのリンゴの意味じゃないでしょ。

もっと言えば、AIは「物がある」ってことも理解できません。
これはAIだけの話じゃありません。
「ものが存在するとは」って、ギリシャ時代から議論されてる哲学的問題です。
「物がある」ってことすら、簡単に定義できないんですよ。
たとえ言葉を言葉で定義できたとしても、意味はありません。
だって、言葉で定義するかぎり、いつまでたっても現実世界に着地しないんですから。
これが、AIは意味を理解できないってことです。

それじゃぁ、どうやれば、AIは言葉の意味を理解できるんでしょう?
人間は、この現実世界を生きています。
それに対して、大規模言語モデルは、テキストデータを学習してるだけです。
つまり、テキストデータの世界しか知らないわけです。

ということは、AIにも、人間と同じように現実世界を学習させれば、言葉の意味を理解できるようになるんじゃないでしょうか?
人が、目や耳で世界を認識するみたいに、カメラとマイクを使って、現実世界の映像や音を学習させるんです。
そうすれば、AIも言葉の意味を理解するんじゃないでしょうか?
実際、最近のAIは、マルチモーダルといって、映像や音を学習させています。
これで言葉の意味を理解できるようになるんじゃないでしょうか?

残念ながら、そうはならないんですよ。
だって、動物は、目や耳をもって、現実世界を生きていますよね。
でも、言葉を話せるようになった動物はいません。
犬に言葉を教えても、覚えれるのは、オテとかマテだけです。
会話にはなりません。
重要なのは、映像とか音とかって、入力するデータじゃないんです。
そうじゃなくて、入力されたデータを、頭の中で、どう処理するかです。
じゃぁ、人間は、頭の中で、どうやって処理してるんでしょう?

ものを考えてるのは意識ですよね。
じゃぁ、意識って何なんでしょう?
心や意識について考えると、近代哲学の祖、ルネ・デカルトまでさかのぼります。
デカルトは心と体は別だと考えました。
デカルトの言う心というのは魂のことです。
そして、魂はどこにあるかと言うと脳の中の松果体だそうです。

松果体を通じて心と体が相互作用すると考えました。
このような考えを、心身二元論といいます。

自分の本質は、心にあります。
体は心の命令で動く機械です。
デカルトの有名な言葉に「我思う、故に我在り」があります。
これは、この世のすべて、あらゆるものを疑ったとしても、たった一つ、疑いようのないものがある。
それは何かというと、こうして考えている自分です。
この考えの根底にあるのは、心を中心として、体はそれに付き従う心身二元論という考えです
この考え、分かりますよね。
僕らが普段感じてる感覚に近いです。

ところが、その後の科学の台頭で心身二元論は否定されます。
心や魂といったあいまいなものは存在しない。
科学は、客観的に観測可能なものしか対象としません。
だから、神とか宗教は排除されたわけです。
心も同じです。
心と言うあいまいなものは存在せず、あるのは、脳だけであると。
これが心身一元論です。

これも、言われたらそんな気がします。
脳の神経細胞の処理が心なんでしょう。
そう考えたら、心身一元論が正しいような気がします。

20世紀になって、ますます科学が発達しました。
相対性理論や量子力学で、量子の世界から、宇宙の果てまで科学で解明できるようになりました。
科学で解明できないものは、もう、ほとんど残ってないんじゃないかって言われるようになりました。

ところが、20世紀も終わりごろになって、やっぱり、なんかおかしいんじゃないかって気運が高まってきました。
今の科学では、意識については、ほとんど何も解明されてないんじゃないかって。
そこで、1994年、アメリカのツーソンで、世界で初めて、意識に関する国際会議が開かれました。
そこには、神経科学、哲学、物理学、心理学、脳科学から人工知能、宗教家まで、意識について一言、言いたい人が集まってきました。
でも、当然、話がまとまるわけがありませんよね。
そこにさっそうと登場したのが、当時、若干27歳の若き哲学者、デイビッド・チャーマーズです。

三番目に登壇したチャーマーズの発言で、会議の方向性が決まりました。
彼は、意識には、易しい問題、イージープロブレムと、難しい問題、ハードプロブレムがあると言いました。
イージープロブレムというのは、脳の神経細胞を辿っていけば解決する問題です。
たとえば、目からの画像は、最初、縦線とか横線とか簡単なパターンから解析されます。
それが処理が進むにつれて、徐々に複雑なパターンを解析して、最終的に、リンゴとか、机とかって判定されます。
こうやってわかるのがイージープロブレムです。

一方、僕らは目の前にリンゴがあるとか、机があるとかって思いますよね。
「美味しそうなリンゴだなぁ」とか、「食後にみんなで食べよう」とかって思ったとしますよね。
思ってるのは意識です。
この思ってる意識とか、食後にリンゴを食べたいなぁって思ってる内容は、いくら脳を観察しても見えてこないんですよ。
これがハードプロブレムです。
今の脳科学がやってることって、全てイージープロブレムです。
今のやり方じゃ、ハードプロブレムは解決しない。
チャーマーズは、そういったんです。

確かに、そうですよね。
僕らは起きてる間、何か考えたり、しゃべったりしてますよね。
それをしてるのは意識です。
それが、今の科学じゃ、全く扱えないんです。
これは問題ですよね。

でも、最近の脳科学では、BMIって技術が流行っています。
BMIっていうのは、脳に電極を埋め込んで、脳を直接観察する技術です。
最近だと、イーロンマスクが立ち上げたニューラリンク話題となっています。
このBMI技術、人が考えてる内容を読み出すことができるそうです。
でも、よく聞いてみると、ちょっと違いました。
できるのは、考えて文字を入力することです。
文字を書くところや、キーボードを入力してるところを思い浮かべることで、文字入力できるようになってるそうです。
確かに、すごい技術です。
でも、それはイージープロブレムです。
思考の中身そのものを直接読みだしてるわけじゃありません。
BMI技術の精度が高くなってなっても、考えてる内容とか、意識自体を観察することは不可能なんです。

イージープロブレムとハードプロブレムとは、違う次元にあるんです。
イージープロブレムの次元には、意識は存在しないんです。
どうやって意識を解明したらいいのか、それすら、分からないのが今の科学なんです。
科学の手の届かないところに、意識という、膨大な宇宙が広がってたんです。
今になって、そのことに気づいたんです。

21世紀になって、また、デカルトの時代に舞い戻ったんでしょうか?
体とは別に、心が存在するんでしょうか?
ところが、科学はどこまでも心を否定します。

デカルトは、体は心の命令で動く機械だって言いました。
体は意志の力で動いていると言ってます。
つまり、人間には自由意志があるってことです。
ところが、それを否定する脳科学の実験があります。
厳密な科学実験が、心を存在にとどめを刺しました。
それが、リベットの実験です。

ベンジャミン・リベットはカリフォルニア大学の生理学者です。
リベットは、人間が自発的に行動を決定してから、実際に動くまでの脳波を厳密に測定しました。
まず、被験者に、好きなタイミングで指を動かしてくださいと言っておきます。
実際に指が動いたタイミングは筋電図によって記録します。
「今、動かそう」って脳で思ったタイミングは、脳波で測定します。
ただ、これだけでは、まだ、不十分です。
ここで測定したのは、客観的に測定できるデータだけです。
でも、「今、動かそう」って決めたのは意識ですよね。
意識が、「今」と思った瞬間って、実は、客観的に測定できません。
だって、他人が頭の中で、何を考えてるかなんか、分からないでしょ。
分かるのは、本人だけです。
だから、意識が「今」と思った瞬間も、自己申告してもらうしかないんです。
それじゃぁ、どうやって、意識が思ったタイミングを正確に測定できるでしょう?

そこで考えたのは、こんな風に黒丸が高速で回転するタイマーです。
そして、被験者に「今」って思った瞬間の黒丸の位置を覚えておいてもらいます。
これで、意識が、「今」と感じた時刻を客観的に測定することができます。

さて、こうやって測定した結果がこれです。

0の位置が、実際に筋肉が動いた時刻です。
そして、その550ミリ秒前から、脳波が立ち上がっています。
さて、問題は、意識が「今」と感じた時刻です。
それは、ここです。

筋肉が動く200ミリ秒前でした。
さて、これ見て、おかしなことに気づきませんか?

まず、全ての始まりは、「今、動かそ」って、意識が決めたことですよね。
そう思ってから、脳から筋肉に指令が言って、指が動くわけです。
ところが、これ、見てください。
意識が「動かそ」って思う、350ミリ秒も前に、脳波が出てるんですよ。

じゃぁ、その最初に出た脳波って何?ってなりますよね。

これ、そのまま解釈したら、この脳波が、「今、動かそうと思え」って指令を出したことになります。
そして、意識は、その指令を受けて、「そうや、今、動かそ!」って思ったってわけです。

ええ、どういうこと?
「動こ」って自分で決めたんじゃなくて、誰かに思わされてた?
じゃぁ、そう思わせたのは誰?
神?
宇宙人?
そうなりますよね。

ちょ、ちょ、ここは一つ落ち着きましょ。
落ち着いて、科学で納得できる説明を考えましょ。

まず、筋肉を動かしてるのは脳なのは、間違いないです。
つまり、脳の活動が体を動かしているわけです。
そして、今、こうして感じてる意識があるのもまぎれもない事実です。
でも、その意識は、脳の活動の後、「動かそ」って思い浮かぶわけです。
この条件を満たす意識があるとすれば、それは、どんなものでしょう。

考えられるとすれば、それは、自分の体が動くのを観察して、あたかも自分が動かしたと思う意識です。
それは、観察するだけで、外の世界に何の影響も与えることができない意識です。
ただ、本人は、自分が体を動かしてると思ってます。
つまり、自由意志がない意識です。

どうでしょう?
これなら、辻褄があいますよね。
この実験は、その後、世界中で検証され、実験の正しさは証明されています。
つまり、自由意志が存在しないことは、実験によって証明されてるんです。

はい、ここまでが前半です。
AI、脳、意識にまつわる現代の主要な問題は、一通り網羅したと思います。
今までの話で、意識は、自由意志もないし、ただ、観察するだけの存在に成り下がってしまいました。
面白くなってくるのは、こっからです。
こっから、意識の反撃が始まります。
それでは、後半戦です!

さて、今まで、意識、意識と、なんか、漠然とした話しかしてきませんでした。
まずは、この漠然とした意識を、はっきりとさせていきます。
そこで、一つの脳障害を紹介します。
それは、盲視と言います。
盲視というのは、目が損傷したんじゃなくて、脳の一部が損傷して目が見えなくなった障害です。
この盲視には、興味深い現象があります。
黒板をレーザーポインターで指し示して、「光の点がどこにあるか分かりますか?」って聞きます。
当然、「見えないので分かりません」って答えます。
それでも、「あてずっぽうでもいいので、指で指し示してください」って言います。
そしたら、なんと、正確に指差しできるんです。
「なんでわかったんですか?」って聞いても、「自分でもわからない」って答えます。
本当に、あてずっぽうで指差ししてるんです。

これって、どういうことでしょう。
どうもね、この体には、自分一人がいるだけじゃないみたいなんですよ。
もう一人、この体を操ってる人がいるみたいです。
意識は、その存在に普段気づかないだけです。
その存在のことを、無意識と呼ぶことにしましょう。

よく考えたら、無意識って、気付かないだけで、普通にいますよね。
たとえば、熱い鍋に触った時、思わず、手を引っ込めますよね。
いわゆる脊髄反射です。
これって、意識してない行動です。
気が付いたら、手を引っ込めてます。
この「気が付いた」ってのが意識です。
気が付く前の行動が無意識です。
それから、注意してほしいのは、熱いって感じるのは、手を引っ込めた後なんです。
つまり、熱いと感じたから手を引っ込めたわけじゃないんですよ。

手を引っ込めたのは、無意識でしたよね。
どうも、無意識は熱いとか感じないみたいです。
熱いと感じるのは意識だけなんです。

ちょとずつ、意識と無意識の違いが分かってきましたよね。
さて、盲視の話に戻ります。
目からの情報は、まず、後頭部の視覚野に送られます。

そこから側頭葉の腹側視覚路と、頭頂葉の背側視覚路の二つに分かれます。
腹側視覚路っていうのは、物の色や形を分析して、最終的に、それが何かを判断します。
だから、この処理経路は、「何の経路」とも呼ばれます。
背側視覚路は、物の位置や動きを分析する経路で、どこの経路とも呼ばれています。
そして、盲視の人は、何の経路が損傷してるんです。
だから、物が見えなくなってるんです。
ただし、どこの経路は生きています。
だから、光の点を指差しできるんです。

さて、ここで注目してほしいのは、見えないと感じてるのは意識ですよね。
と言うことは、意識というのは、どうも、腹側視覚路の先にあるようなんです。
それから、進化的には、背側視覚路が古くて、腹側視覚路は新しいってこともわかっています。
つまり、意識というのは、進化的に新しい生物しか持ってないようなんです。
逆に言えば、進化的に古い生物は、意識がないと言えそうです。
意識がないということは、無意識の反射反応だけで生きてるってことです。
さっき、無意識は、熱さを感じないって言いましたよね。
つまり、熱さとか、痛さとか、意識があるから感じるんです。
と言うことはですよ。
進化的に古い生物、たとえば魚とかは、痛みを感じてないようなんです。
まぁ、他人の痛みは、客観的に測定することはできないので、厳密には、本人に聞かないとわからないですけどね。

さて、どうでしょう。
曖昧だった、意識というものが、少しずつ、はっきりしてきましたよね。
もう少し、探っていきますよ。

眼球が一度に見える範囲って、どれぐらいか知ってますか。
じつは、驚くほど狭くて、角度にして1度。
腕をまっすぐ伸ばして親指を立てたときの爪ぐらいの範囲だけなんです。

眼球は、サッカードといって、小刻みに動いてるんです。
これ見てください。
右の白丸で示す部分が一度に見える範囲です。
だから、眼球が見たとおりに意識が見てたとしたら、左みたいに見えるはずです。
でも、僕らは、こんな風に見えてないですよね。
右みたいに世界全体が見えてますよね。
これって、どういうことでしょう?

これは、意識は、眼球が捉えた世界を直接見てるわけじゃないってことです。
そうじゃなくて、眼球が捉えた画像をつなぎ合わせて全体を組み立ててるんです。
そうやって、組み立てられた世界全体をみてるんです。
左のように、眼球が直接見る光景は、脳を観測して分かることです。
つまり、左はイージープロブレムです。
そして、右は意識が見てる世界です。
こっちが、ハードプロブレムとなります。

そして、左の部分から、右の全体を組み立ててるのが無意識なんです。
意識は、無意識が組み立てた世界を見てるんです。
なぜ、そんなことしてるか分かりますか?
だって、左みたいにしか見えないと、何が何だかわかりませんよね。
無意識は、意識が世界をちゃんと把握できるように、世界を作り上げてるんです。

また、別の例を挙げます。

これを見てください。
顔からこれを30cmほど話して、右目をつむってください。
そして、左目の前に黒丸が来るようにしてください。
そしたら、十字が消えませんか?
消えなかったら、そのまま前後にずらせて調整してみてください。
十字が消えたら、そこが盲点です。

網膜には光を受ける受容体が1億個以上あって、それが視神経で脳に送られます。
視神経をまとめたところだけ、受容体がなくて、ここだけ、見えないんですよ。
これが盲点です。

だから、ちょうど盲点に十字がくると、十字が消えるんです。
でも、よく考えたら、十字が消えるっておかしいですよね。
だって、盲点が見えないなら、消えるんじゃなくて、黒い穴になるじゃないですか。

ここに無意識の働きがあるんですよ。
いいですか。
さっき、言いましたよね。
意識に世界全体を見せるために、無意識が部分を組み立ててるって。
つまり、無意識の役目は、意識に完璧な世界を提供することなんですよ。
世界に穴なんか開いてたらダメなんですよ。
だから、必死で穴をふさごうとするんですよ。
意識さんに、完璧な世界を提供しよう。
それが、無意識さんの仕事です。

本当は、今、見えてる世界は、部分をつなぎ合わせて組み立てた張りぼてなんです。
でも、つなぎ目なんか、決して意識さんにみせちゃだめなんです。
盲点で見えないのは無意識さんも同じです。
でも、見えないからって、世界に穴をあけるわけにはいかないんですよ。
そんなことしちゃ、意識さんがびっくりしてしまうでしょ。
「なんじゃ、こりゃ!」ってなります。
そんなことしたら、無意識さん失格です。
だから、バレないように必死で穴を埋めるんです。
周りの世界と同じ色で、穴を埋めるんです。
だから、黒い十字が白く塗りつぶされたんです。

分かってきましたか?
今、みんなが見てる世界、これ、無意識さんが、必死で作り上げてくれてるんですよ。
ねぇ、こんなこと、教えてもらうまで、全然、気付かなかったでしょ。
でも、無意識さんは、「僕が作ったんです」なんて、おごることは一切ないです。
もう、なんて、謙虚なんでしょう。

さて、プロジェクト・エデンです。
プロジェクト・エデンの目的、忘れてないですよね。
意識の謎を解明することじゃないですよ。
コンピュータで心をつくることです。
もこみの心をつくるんです。
それじゃぁ、今までの話を踏まえて、心を、少しずつコンピュータで置き換えていきますよ。
まず、置き換えるのは、無意識です。

無意識の役目は、何でしたか?
そう、世界を作って、意識に提供することでしたよね。
意識は、とりあえずは、いまの意識を使うことにします。

世界を作って提供する部分だけ、コンピュータに置き換えるんです。
そんなこと、どうするかって言うと、VRシステムを使うんです。
VRゴーグルで視界を覆います。
そして、カメラをVRゴーグルに取り付けます。
つまり、ユーザーが見てる光景をカメラで撮影するんです。
そして、カメラからの映像をリアルタイムで解析して、3DCGに変換して、VRゴーグルに投影するんです。
3DCGは、実際に見える光景と区別がつかない高精細画像です。
すると、どうなりますか?
ユーザーは、VRゴーグルをつけても、外しても、同じ光景を見ます。
目の前に、普通に部屋が見えます。
実際の机にも触れます。
ここまでで、無意識の置き換えが完了しました。

さて、次は、意識をコンピュータに置き換えましょう。
ここでは、既に、人型ロボットがあるとします。
たとえば、最初に紹介した、ボストンダイナミクスのロボットです。

このロボットの目にVRゴーグルを装着するんです。
いや、装着するんじゃなくて、ロボットと一体化するんです。
つまり、ロボットのプログラムにVRシステムを組み込むんです。

VRシステムというのは、目の前の光景をリアルタイムで3DCGに変換するシステムですよね。
これを無意識プログラムとします。
それから、ロボットの体を制御するプログラムがあるわけですよね。
これを、意識プログラムとします。
そして、無意識プログラムと意識プログラムとをつなげるわけです。

意識プログラムというのは、世界を認識して、行動を決定するプログラムです。
この世界認識に、無意識プログラムを使うわけです。
無意識プログラムは、3DCGを生成してましたよね。
たとえばカメラでリンゴを撮影したとすれば、3Dのリンゴオブジェクトを生成して、三次元空間に配置します。
ロボットの意識プログラムは、3Dオブジェクトのデータに直接アクセスします。
3Dオブジェクトのデータは、具体的にはコンピュータのメモリに生成されるデータのまとまりです。

ここで、ちょっとプログラムの話をします。
オブジェクト指向プログラミングっていうのがあります。
これは、プログラムの手法の一つで、現実世界にあるものをオブジェクトってデータのまとまりで表現します。
オブジェクトには、属性を表すプロパティと、動きを表すメソッドがあります。
物体なら、色とか形とか位置ってプロパティと、落ちるとかってメソッドがあるわけです。
リンゴオブジェクトなら、色プロパティは赤で、形プロパティは丸です。

さて、今、意識プログラムがメモリ上のリンゴオブジェクトにアクセスしました。
位置プロパティを読み取ることで、目の前にあるってわかります。
さて、これ、どういうことか分かりますか?
これ、意識は、「リンゴがある」って認識したってことですよ。
さっき説明したでしょ。
「ものがある」って、ギリシャ時代から解決できてない哲学的問題だって。
それが、今、定義できたんです。

もう一回説明しますよ。
カメラで捉えたリンゴを3Dオブジェクトに変換して、それを3Dの三次元空間に配置しました。
これらのメモリ上の3Dデータを意識プログラムが読み出すこと。
これが「ものがある」の意味です。

AIが言葉の意味を理解できない最大の問題はシンボルグラウンディング問題でしたよね。
シンボルグラウンディング問題っていうのは、言葉を言葉で定義する限り、いつまでたっても現実世界に着地しないってことでしたよね。

今、出発点は現実世界のリンゴを撮影したことです。
これ、現実世界に着地してるでしょ。

それをリンゴオブジェクトに変換しました。
オブジェクトにはプロパティがあります。
名前プロパティには「リンゴ」って入ってます。
これが言葉ですよ。
言葉が現実世界に着地したんですよ。
絶対解決不可能と言われていたシンボルグラウンディング問題が解決したんですよ。

「リンゴの色は何色ですか?」って質問したら、リンゴオブジェクトの色プロパティを見て「赤色です」って答えます。
ねぇ、ちゃんと会話もできるでしょ。
たしかに、このぐらいの会話は、ChatGPTでもできます。
でも、ChatGPTは、意味を理解せずに答えてるだけです。
「リンゴの色は何色」って文字列に続くのは、「赤色」が高いってことを学習してるだけです。
こんなの、意味を理解してるといえないでしょ。
同じ会話ができても、中身は全然ちがうんですよ。

これで、AIの最大の問題、言葉の意味理解を解決できました。
でも、もう一つ大きな問題がありましたよね。
意識のハードプロブレムです。
意識のハードプロブレムというのは、脳の神経細胞をいくら辿っていっても意識に辿り着かないって問題でしたよね。
もっと言えば、この現実世界、物理世界と、意識の世界とが、どうやって結びついてるのかわからないってことです。

さて、今、スタートはカメラで撮影したリンゴでしたよね。
つまり、この現実の物理世界です。
そして、最終的にそれを認識するのは意識プログラムでしたよね。
物理世界と意識の世界が結びついています。
つまり、意識のハードプロブレムが解決してるんですよ。
じゃぁ、物理世界と意識の世界は、どこで結びついたんでしょう。

それは、撮影したリンゴを3Dオブジェクトに変換したところです。
じゃぁ、これの意味することは何でしょう?

意識は、「リンゴ」とい言えば、リンゴオブジェクトを生成して、リンゴオブジェクトのデータにアクセスできるわけです。
この「リンゴ」って名前、これは一種の記号ですよね。
これ、誰かが決めた名前ですよね。
現実世界のリンゴから、必然的に生まれた名前わけじゃありません。
つまり、一旦、記号化すると、物理世界からは辿れないんですよ。
物理世界から記号世界に辿り着く方法はないんですよ。
これが意識のハードプロブレムです。

でも、僕らがいるのは記号世界ですよね。
僕らは、物理世界も知ってますよね。
つまり、記号世界からは物理世界に辿ることはできるんです。
「リンゴ」って言葉は、現実世界のリンゴに対応するって、意識は分かってます。

物理世界と意識の記号世界は、こういう非対称性があるんですよ。
じゃぁ、意識を解明するにはどうすればいいんでしょう。
物理世界から意識の世界に辿り着けないんだから、意識の世界から解明するしかないですよね。
これ、何を意味するかわかりますか?

それは、意識の側の世界を作るしかないってことです。
意識の世界って、オブジェクトで作れましたよね。
オブジェクトって、プログラムで操作できますよね。
だから、プログラムで意識の側の世界を作るんです。
これしか、意識や心の仕組みを解明する方法はないんです。

心はプログラムで作って、体はロボットで作ればいいです。
現実の物理世界で動くロボットです。
そうすれば、意識の記号世界と、ロボットの物理世界がつながります。
ただ、実際のロボットを作るのは大変です。
そこで、現実世界の代わりにメタバースを使います。
ロボットの代わりに、メタバースで動くAIアバターを使います。
そうして、AIアバターの心をつくるんです。
それがプロジェクト・エデンです。
わかりましたか?

ようやく、プロジェクト・エデンに辿り着きました。
ここで、クオリアの話をしておきます。
意識科学では、意識が認識するものをクオリアって言います。
たとえば、赤い色って、物理世界だと波長700nmの光だって定義します。
でも、物理世界と意識の世界とは違いますよね。
意識や主観が「赤」って感じるものを赤のクオリアって言います。
このクオリアっていうのも、まだ、科学でちゃんと定義できていませんでした。
でも、今までの話で定義できるようになりましたよね。
赤は、物体オブジェクトの色プロパティです。
意識が感じるものは全てクオリアです。
そして、それはオブジェクトで定義できます。
リンゴのクオリアは、リンゴオブジェクトです。
色のクオリアは、オブジェクトの色プロパティです。
こうやって、意識が感じるクオリアを、プログラムで定義できるようになりました。

それから、最も重要な話をしておきます。
いま説明した意識の仕組み、このことを意識の仮想世界仮説といいます。
これは、僕が提唱する意識仮説です。
プロジェクト・エデンでは、意識の仮想世界仮説を基にして心のプログラムを作ります。
それが、マインド・エンジンです。

マインド・エンジンというのは、人間の心をプログラムで再現したものです。
意識をもって、人間と普通に会話ができる会話エンジンとなります。

マインド・エンジンの解説の前に、人間と動物の意識の違いについて考えてみます。
現代科学では、まだ、意識の定義すら決まっていません。
人によっては、石ころにも意識が有ると言う人もいるぐらいです。
そこで、ロボマインド・プロジェクトで目指す意識について、簡単に定義しておきます。
これは、あくまでも僕の考える定義です。

僕は、意識を脳の進化の過程で生まれたものとして、意識自体も、進化したと考えています。
そして、意識の進化を3段階に整理しました。
これを、脳の系統発生図を見ながら説明します。

濃い青が脊髄で、ピンクが小脳、脳幹で、薄い青が大脳です。
僕は、意識は大脳に宿ると考えています。
魚や両生類は、大脳がほとんどありませんよね。
だから、意識もほとんどないと思っています。
このレベルの生物は、意識はほとんどなくて、無意識だけで生きてると思っています。
さっき説明しましたけど、熱い鍋に触って思わず手を引っ込める脊髄反射などが無意識です。
魚とかカエルは、脊髄反射みたいな原始的な意識しかないと思っています。
つまり、外部環境に自動で反応するような処理だけです。
カエルだったら、目の前で虫が動いたら、反射的に捕まえて食べるとか、天敵の鳥の影を感じたら、反射的に池に飛び込んで逃げるとかです。
盲視の話で説明しましたけど、意識がなくても、外界に反応することができましたよね。
あれがカエルの感じてる世界だと思います。
意識では何も感じなくても、正しい行動ができるって世界です。
このレベルの意識を、カエルレベルの意識とします。

じゃぁ、意識はどこにありましたか?
それは、何の経路の先でしたよね。
つまり、「ものがある」って感じる感覚、目の前に世界があるって感じる感覚。
こう感じれるのは、意識があるからです。
これを実現するの仕組みが仮想世界です。
目で見た世界を仮想世界として構築して、それを観察するのが意識です。
そして、これを実現するのが大脳だと思います。
大脳が発達してくるのは哺乳類からです。
犬とかになると、教えたら芸ができるようになりますよね。
オテとかマテができるようになります。

じつは、これって、すごいことなんですよ。
こういう入力があったら、こういう行動をするって、もともと遺伝子に刻まれてるわけです。
つまり、それは生まれる前から決まってるわけです。
それだけで行動してるのがカエルレベルの意識です。
それが、生まれてから、入力に対する行動を変更したり、学習できるようになったんです。

それを実現するには、入力に反射的に反応してたらダメなんですよ。
まず、それが何かって認識しないといけないんですよ。
それが「物を見る」ってことです。
「世界がある」って形で感じれるってことです。

まず、何かがあるって認識するでしょ。
「オテ」って言われて、飼い主が手を差し出したことを認識しました。
その上に前足を乗せたら、褒められました。
こうして、「オテといわれたら、前足を乗せるんやな」って学習するわけです。
これができるには、仮想世界を使ってものを認識する意識が必要なんです。
このレベルの意識を犬レベルの意識と呼ぶことにしましょう。

その次の段階が人レベルの意識です。
人間と犬の最大の違いは、言葉です。
動物は、人間のように言葉を話すことができません。
でも、もしかしたら訓練したら話せるようになるかもしれませんよね。
類人猿で最も頭がいいといわれてるのがボノボです。
ボノボに言葉を教えたって有名な実験がありました。

スゴイですよねぇ。
ちゃんと言葉を理解してますよねぇ。
なんと1000語もの単語を覚えてるそうです。
でも、長い会話が続くことはないそうです。
なぜかと言うと、ボノボが理解できるのは、目のまえに起こってる出来事だけだからです。
「昨日、こんなことがあったよ」って会話はできないんです。
つまり、昨日の思い出とかって記憶ができないようなんです。
ここに重要なヒントがあります。
どんなことを覚えれるかって記憶の仕組みが、人間と動物で違うようなんです。

ここで、記憶について、探っていきます。
まず、意識が認識するのは仮想世界でしたよね。
仮想世界は、目で見た現実世界を頭の中に構築したものです。
コンピュータだと3DCGで作れましたよね。
そして、仮想世界に配置される物体はオブジェクトです。
オブジェクトには属性を表すプロパティがあります。
ボノボは、1000語もの単語を覚えたって言ってましたけど、これはオブジェクトの名前プロパティを覚えたんでしょう。

それから、オブジェクトは動きを表すメソッドもあります。
犬の「オテ」は、人が差し出した手に、前足を乗せるって動作ですよね。
これは、前足オブジェクトのメソッドとして表現できます。
こう考えると、犬やボノボが覚えることができるのは、オブジェクトのプロパティやメソッドのようです。
そして、そのオブジェクトは、目の前の現実世界にあるものだけです。
つまり、犬やボノボが覚えることができるのは、目の前にあるオブジェクトのプロパティやメソッドです。

長期記憶には二種類あるといわれています。
一つは意味記憶、もう一つはエピソード記憶です。
意味記憶っていうのは、リンゴは赤いといった知識です。
言い換えたら、これはオブジェクトのプロパティです。
犬やボノボが覚えることができるのは意味記憶というわけです。

エピソード記憶というのは、「昨日、こんなことがあった」って思い出のことです。
ボノボは、1000もの単語を覚えましたけど、「昨日、こんなことがあった」って会話はできなかったですよね。
つまり、エピソード記憶ができないんです。

昨日、起こった出来事っていうのは、今、目の前で起こってることじゃないですよね。
つまり、目の前にない世界を、作り出してるわけです。

目の前の現実世界というのは、無意識が作りだした仮想世界でしたよね。
意識は、その仮想世界を認識するわけです。

昨日の出来事を思い出すのも意識ですよね。
つまり、昨日の出来事を思い出せるってことは、意識が昨日の世界を作りだせたってことです。
これ、すごいことなんですよ。
今まで、無意識しかできなかったことを、進化によって、意識ができるようになったんです。
この進化は大きいですよね。

しかも、思い出すだけじゃないですよ。
自由に世界を作れるなら、過去の記憶だけじゃなくて、未来のこととか、自由に想像できますよね。
自由に世界を想像できる機能を持てるようになったんです。
それも、自分だけでなくて、相手も持ってます。
そうしたら、何が起こると思います?

コミュニケーションです。
「あの山の向こうに、ライオンがいたぞ」とかって言葉で言います。
それを聞いた相手は、あの山の向こうにライオンがいるところを想像するんです。
これがコミュニケーションです。
これができるには、目の前にない光景を頭の中に作り出す仕組みが必要ですよね。
まず、必要なのは仕組みです。
言葉は、その後です。

いいですか?
犬は、目の前のものを認識できる仕組みは持ってます。
ただ、これで出来るコミュニケーションは、目の前にあって、お互いが共通に認識してる世界に対してだけです。

それが、人の意識になると、目の前にない世界を想像できるようになりました。
これによって、目の前になくても、頭で考えてることを相手に伝えることができるようになったんです。
重要なのは、自由に想像できるって仕組みです。
お互いにこの仕組みを持っているから、複雑な出来事を伝えることができるんです。
その時に使う表現の一つが言葉です。
言葉って、奥にある仕組みの上で、表面に現れた現象です。
だから、表面的な言葉だけ、いくらいじくってても意味ないんです。
重要なのは、世界をどうやって認識するかって心の仕組みです。
そして、それをコンピュータで実現したのがマインド・エンジンです。

それでは、そのマインド・エンジンの説明をします。

マインド・エンジンは、メタバースのAIアバターに搭載されます。
メタバースも、その中で生きるアバターも全て3DCGで作られています。
さて、AIアバターの眼は、目の前の光景をカメラで捉えます。
カメラで捉えたメタバースの光景、これが現実世界です。

AIアバター全体を制御してるのは無意識です。
無意識は、カメラで捉えた現実世界を解析して、それを3DCGで再現して現実仮想世界を作ります。
現実仮想世界も、メタバースと同じく3DCGで再現されます。
ただし、自分で生成したので、3Dオブジェクトのデータに直接アクセスできます。

たとえば、意識プログラムが、机オブジェクトの位置プロパティにアクセスすることで、1m先に机があると思うわけです。
この意識プログラム自体を起動したり、終了したりするのも無意識です。
意識プログラムを起動するとは、目が覚めるってことです。
終了するとは、眠るってことです。

意識が机を認識して、机のとこまで行こうって決めたとします。

すると、その決定は無意識に送られ、無意識が身体を動かします。
人間なら、手足の筋肉を動かして歩かせるわけです。
このように、全てを制御してるのは無意識です。
意識は無意識の上で動いてるだけといえます。
こういうと、意識には、自由意志はないように思いますけど、ちょっと違います。
無意識は、コンピュータでいえばOSで、意識は、OSの上で動くアプリケーション・ソフトです。
無意識と意識の関係は、OSと、その上で動くソフトの関係。
これが大前提となりますので、よく覚えておいてください。

これを踏まえたうえで、無意識と意識の役割分担について説明します。
ぼくは、よく、自転車を例に挙げます。
自転車に初めて乗るときって、ハンドルを握って、ペダルを漕ぎながらバランスを取ってって、頭で考えながら乗りますよね。
でも、頭で考えてるうちは、うまく運転できません。
でも、何度も練習してると、だんだんうまく乗れるようになってきます。
このとき、頭で考えてないんですよ。
自動でバランスを取りながらペダルを漕いで運転してます。
この、自動で運転してるのが無意識です。
じゃぁ、意識は何のためにあるんでしょう?
それは、行動の選択です。
自転車を運転していて、分かれ道に来ました。
どっちに行けばいいのか?
それは、目的地によって異なりますよね。
それを考えて、決めるのが意識の役目です。

分かってきましたか?
いつも行なってる行動は自動でできますよね。
それをするのが無意識です。
でも、初めての状況とか、考えないと決めれないことがあります。
それを決めるのが意識です。
この関係を、しっかり覚えておいてください。

さて、それでは、こっからは具体的な話をしていきます。
AIアバターを太郎君とします。
そこに、花子ちゃんがやってきて、二人でジャンケンをするとします。
これを、マインド・エンジンでどうやって実行するかを解説していきます。

まず、ジャンケンをすると決めると、ジャンケンのプログラムを読み込みます。
これが、ジャンケンのプログラムです。

大雑把に説明すると、ジャンケン・プログラムは三つのルールからなります。
ルール0は、プレイヤーはグー、チョキ、パーの三つの手を出すとか、パーはグーに勝つとかって勝利条件が書いてあります。
ルール1は、最初に「じゃん、けん、ぽんって」言いながら、出す手を決めて、同時に手を出すってことが書かれてます。
その次のルール2で、誰が勝ったかを判定します。

実際のプログラムは、これがさらに細かく分解されますが、そういった細かい話は置いておいて、これが何を意味するのかって話をします。
まず、このプログラムはジャンケン世界って呼ばれています。
この世界っていうのは、三次元世界の世界に対応しています。

今まで、ずっと、現実世界は三次元の物理世界で、コンピュータでは3DCGで再現するって説明してきましたよね。
物があるとか、物が落ちるとかってことは三次元の物理世界で定義できます。
たとえば、「上」って単語の意味は、三次元空間と重力を設定した3DCGを使えば、重力に反する方向が「上」だって定義できますよね。
今までのAIで定義できなかった言葉の意味が、こうして現実世界にしっかり着地して定義できたんでしたよね。

ただ、これで定義できるのは、三次元の物理世界だけです。
僕らは、物理世界にないことも考えれますよね。
たとえば、物の売買です。
売買って、物の所有権とお金を交換することです。
でも、所有権って、物理世界じゃ定義できません。
そこで、所有権とかお金ってのを定義した所有権世界ってものを作ります。
所有権世界を作れば、売るとか買うって言葉の意味を定義できますよね。
その他、貸し借りとか、盗むとかって言葉も所有権世界で定義できます。

何が言いたいかって言うと、言葉の意味というのは、世界と、その世界で使われるオブジェクトで定義できるってことです。
そして、その世界というのは、三次元世界以外に、所有権を定義した所有権世界とか、人間関係を定義した人間関係世界とか、もう、いっぱいあるってことです。

そんな中に勝ち負け世界ってのがあるんですよ。
勝ち負け世界には、ルールとプレイヤーがあって、勝ち負けが決まるって世界です。

そして、勝ち負け世界には、スポーツ、戦争、ゲームがあって、ゲームの中に将棋やジャンケンがあります。
今回は、この中のジャンケン世界の話になるってわけです。
分かってきましたか?

整理しますよ。
意識が認識するのは世界です。
そして、世界には、三次元の物理世界以外に、いろんな世界があるわけです。
何をするか、何の話をしてるかによって、意識が認識する世界が変わります。
世界っていうのは、世界と、それに含まれるオブジェクトで構成されます。
勝つとか負けるって言葉は、勝ち負け世界で定義されるわけです。
そして、勝つとか負けって、勝ち負け世界の動きですよね。
それを実現するとすれば、プログラムになりますよね。

言葉って、こんな静的な意味ネットワークで定義できるもんじゃないってわかりますよね。
言葉は世界の中のプログラムとして、動的に定義されるものなんです。
分かってきましたか?

それから、もう一つ、重要な話をします。
勝つとか負けるとかって、人間が作ったルールですよね。
それは、自然界のルールとは違います。
自然界のルールは物理世界で定義されます。
そして、それを扱うのが科学です。
逆に言えば、科学が扱えるのは物理世界だけなんですよ。
ジャンケンとか人間関係って、科学で扱えませんよね。
今、やろうとしてるのは、ジャンケンとか人間関係を、科学と同じ地平線で扱おうとしてるんですよ。
物理世界を定義できるなら、人間関係世界とか、勝ち負け世界も定義できるんですよ。
世界を定義さえすれば、神も悪魔も、同じシステムで扱うことができます。
そして、僕らの心は、まさにそれをやってますよね。
つまり、重力や電磁力と同じように、人間関係も、神も悪魔も同じプラットフォームで扱えるジャンルを生み出そうとしてるんです。
科学を拡張しようとしてるといってもいいです。
これが、僕らがやろうとしてることです。
AIとか、脳科学とか、狭い範囲の話じゃないです。
科学そのものをを再構築しようとしてるんです。
このことを忘れないようにしてください。

ジャンケンから、大きい話になりましたけど、まだ、大きい話は続きます。
次は、変えれるものと変えれないものって話をします。

どういうことかと言うと、カエルレベルの意識は、生まれたときから、行動が決まってましたよね。
犬レベルの意識になると、教えたら、オテとかマテができるようになります。
生まれた後に、行動を変えることができるわけです。
ただし、変更できるのは、目の前にあるものだけです。

人レベルの意識になると、完全に自由に世界を想像できます。
ジャンケンを教えたらジャンケンできるようになります。
教えたらできるって、当たり前って思ってたでしょ。
でも、教えたらできるって、これって、すごいことなんですよ。
だって、ジャンケンって一種の世界です。
世界その物を、新たに作り出すことができるんです。
そう考えたら、これってすごいことなんですよ。
人間まで進化して、脳の中で全く新しい仕組みができたってことなんですよ。
じゃぁ、その世界を作りだす仕組みって、コンピュータでどうやって実現したらいいんでしょう?

ここで、コンピュータ・プログラムの話をします。
プログラマーは、「a = b + 100」とかってプログラムを書きます。
これは、bって変数に入ってる値に100を足し算して、aって変数に代入しなさいって意味です。
ただ、CPUは、このプログラムを直接実行できません。
なぜなら、CPUが理解できるのは01で書かれた二進数だけだからです。
そこで、「a = b + 100」ってプログラムを二進数に変換します。
これをコンパイルって言います。

さて、プログラマーが書くプログラムは何百、何千行ってなります。
これをコンパイルしてCPUで実行できる形にしたものを実行プログラムといいます。
こうやって予め、実行プログラムを作るタイプのプログラムをコンパイラ言語って言います。
コンパイラ言語には、C言語とか、C#、javaなどがあります。

それとは別に、実行時に、1行ずつコンパイルしながら実行するタイプのプログラムもあります。
このタイプのプログラムをスクリプト言語って言います。
スクリプト言語としては、JavaScriptやphp、pythonなどがあります。
そして、スクリプトプログラムを実行するプログラムをヴァーチャルマシンとかインタプリタといいます。

さて、コンパイルして01の二進数になると、もう、意味がわかりませんので、修正することは不可能です。
だから、コンパイラ言語の場合、プログラムを運用し始めたら、プログラムを修正することはできません。
修正するには、一度止めて、コンパイルしなおさないといけません。

一方、プログラマーが書いたプログラムは、意味が分かるように書かれてるので、修正することができます。
そして、スクリプト言語は、運用時に、CPUが実行する直前にコンパイルします。
だから、運用しながらでも、プログラムを修正することができるんです。

さっきも言いましたけど、人は、生まれた後に、世界を作ったり、変更できましたよね。
ジャンケン世界もその一つです。
さっき、ジャンケンのプログラムを見ましたよね。

じつは、これはスクリプト言語で書かれてるんです。
マインド・エンジン専用のスクリプト言語です。

そして、重要なのは、このスクリプト言語は、マインド・エンジンを動かしてる途中で、読み込んで実行できるってことです。
つまり、運用中に、後から世界を教えることができるってことです。
ジャンケンって、こうやってやるのよって教えることができるんです。
それができるのは、スクリプト・プログラムを解釈実行できる仕組みがあるからです。

もし、スクリプト言語でなく、コンパイラ言語だけでマインド・エンジンを作っていたとしたらどうなると思います。
ジャンケンは、起動する前に教えておかないといけないんです。
つまり、生まれる前から、できることが決まったシステムになります。
カエルや犬の意識は、コンパイラ言語で作られてるってことです。
これで、人の意識が、カエルや犬と、根本的に違うってことが分かりますよね。

この話、まだ、続きます。
さて、ジャンケンってどうやって教えますか。
これがチョキよ、パーに勝つのよって、実際にやって見せながら言葉で教えますよね。
実際に見せるってことは、現実世界を認識してるわけです。
そして、それをスクリプトに変換したわけです。
スクリプトに変換したら、後からそれを実行できます。
さらに、ルールを変更することもできます。
これもチョキよって、新しいチョキの形を教えることもできます。
教えたら、新しいチョキでジャンケンできるようになります。
これが、意味を理解してるってことです。
つまり、言葉の意味を理解するっていうのは、自然言語をスクリプトに変換することと同じなんです。

それから、もう一つ重要なことを言います。
このスクリプトを書いたり、変更したりするのは誰かわかりますか?
それは、意識プログラムです。
何が言いたいか分かりますか?

スクリプトは、プログラマーのためにあるんじゃないんです。
意識プログラムのためにあるんです。
意識プログラムが理解したり、考えたりするのに使うのがスクリプトです。
決して、マインド・エンジンを開発するプログラマーのためにあるんじゃないんです。
ここを勘違いしないでおいてください。

そして、このスクリプトは、エピソード記憶にも使われます。
ジャンケンをしたって出来事は、スクリプトで記録されます。
そして、後から、スクリプトを読み出して再現するわけです。
「昨日、花子ちゃんとジャンケンをして遊んだ」って、思い出せるわけです。

さて、以上で、心を構成する重要な要素が全てそろいました。
と言いたいのですが、まだ、一つ、重要な要素が残っています。
今のままでは、行動する動機がないんですよ。
行動の原動力となるものが必要です。
それが何かわかりますか?

それは、感情です。
お腹が空いたら何か食べたい、恐怖を感じたら逃げたい。
行動の原動力となるのは感情です。
生物の基本的な行動原理は、マイナス感情を避けて、プラス感情を求めると言うものです。
マイナス感情というのは、恐怖とか、空腹、悲しいです。
プラス感情というのは、安心とか、満腹、嬉しいです。
意識は何らかの感情を感じて、行動を決定します。

意識が感じるということは、感情もクオリアの一種です。
恐怖のクオリア、空腹のクオリア、痛みのクオリアといったものがあるわけです。
クオリアは、マインド・エンジンだと仮想世界い配置されるオブジェクトになります。
つまり、行動の原動力となるオブジェクトです。

さて、ジャンケンは勝ち負け世界に属していましたよね。
勝つと、自分の評価が高くなるので嬉しいです。
負けると、自分の評価が下がるので悲しいです。
ジャンケンに勝つと、ジャンケンが楽しくなって、ジャンケンが好きになります。
負けると、ジャンケンが嫌いになります。
こうやって、経験、感情、行動が結びついていくわけです。
こうやって、個性が生まれるんです。

さて、好き嫌いだけなら、動物でも持てます。
でも、人間の場合、もう少し複雑です。
ジャンケンで負けても、次はどうやって勝てるかって考えることができます。
思考です。

思考には二種類あると言われています。
ノーベル経済学者のダニエル・カーネマンは、著書『ファスト&スロー』で、速い思考と遅い思考っていう概念を提唱しました。

速い思考っていうのは、一瞬で答えがわかるタイプの思考です。
直観とか、ふと、思いつくタイプの思考です。
遅い思考というのは、じっくり考えるタイプの思考です。
理論的に考えて答えを出すのが、このタイプです。

じつは、今のAIは、全て速い思考なんです。
今のAIは、大量のデータを入力すれば、特徴を自動で学習します。
一度学習すれば、何かデータを入力すればすぐに答えを出してくれます。
例えば、店の売り上げデータと、曜日や天気など、様々なデータを学習させます。
すると、商品を入力すれば、雨の水曜日の午後に売れやすいとかって出力してくれます。
一瞬で答えてくれるのはいいんですけど、なんで雨の水曜に売れるのか、理由がわからないですよ。
説明ができない。
これが今のAIの課題なんです。

さて、マインド・エンジンは、出来事をエピソード記憶として覚えておくことができます。
エピソード記憶というのは、オブジェクトがどのように動いて、どういう結果となったかってことをスクリプトで記述したものでしたよね。
たとえば、太郎がグーを出して、花子がパーを出して、太郎が負けたって記憶があったとします。
これを思い出して、「そうや、チョキを出したら勝てたんや」って思ったとしましょ。
そう思って、次はチョキを出すんです。
まぁ、それで勝てるかどうかは分からないですけど、思考の過程は分かりますよね。
相手がパーを出すと考えたからチョキを出したわけです。
つまり、理論的に考えて答えを出したわけです。
どうです?
今のAIじゃ不可能な、遅い思考ができたんです。
これがマインド・エンジンです。

さて、このパートの最後は、人間しか持てない心理について考えます。
それは、善悪といった倫理観です。
人は、秩序だった社会を形成しています。
それを保つ根底にあるのが善悪です。
ただ、善悪は、他の感情とちょっと違います。

さっき、感情は行動の原動力だって言いましたよね。
マイナス感情を避けて、プラス感情を求めるってのが、人間も動物も共通に持ってる行動原理です。
ところが、善悪って、プラスマイナス感情に結びついてないんです。
善い行い、悪い行いって、いってみれば「~すべき」「~すべきでない」ってことですよね。
お年寄りに席を譲るべき、道にゴミを捨てるべきでないとかです。
好きで善い行動をすることもあれば、いやいや行動することもあります。
重要なのは、好きとか嫌いとかって感情は関係ないってことです。
これができるのって、考えたらすごいことなんですよ。

カエルレベルの意識で考えてみます。
カエルは、天敵の鳥の影を感じたら、素早く逃げます。
カエルを突き動かしてるのは恐怖です。
脳の中で恐怖を生み出すのは偏桃体です。
偏桃体は進化的に古くからある脳の機能です。
カエルレベルの意識は、感情を受けて自動で行動します。
逆らうことはできません。

犬レベルの意識になると、目の前にエサがあって、食べようとしても、マテを教えられると、待つことができます。
感情から生み出される行動を変更することができます。
これができるようになったのは、仮想世界を使って現実世界を認識するようになったからです。
仮想世界に配置されるオブジェクトのプロパティを書き換えることで、行動を変更することができたんです。
これは、仮想世界を持てないカエルにはできないことです。

ただ、行動のきっかけとなってるのは感情です。
感情と行動の結びつきは変更できるとしても、行動の出発点が感情であるという点では、カエルも犬も同じです。

それが、人間になると、感情と関係なくても、行動することができるんです。
人は、感情と切り離した行動ができるようになったわけです。
「こういう場合はこうする」って決めて、行動できるようになったんです。
これって、別の言い方をすれば、ルールです。
たとえば、ジャンケンのルールです。
ジャンケンポンって言って、同時に手を出すって決まり事です。
こうするってルールを自由に作ることができたわけです。

そして、ルールを作れるって仕組み、それが、スクリプト・プログラムです。
運用しながら、自分を動かすプログラム自体を変更することができる仕組みです。
感情に結びついた行動しかできなかったのが、自由に行動できるようになったんですよ。

これ、自由度が増したといえますよね。
カエルや犬は、感情を起点にしてしか行動できなかったわけです。
それが、人間は、感情の呪縛から抜け出たわけです。
こう考えたら、ルールを作れるって、いかにすごいかってわかるでしょ。
これって、生物の進化の歴史の中で、とんでもない進化です。
僕は、これこそが、自由意志の第一歩だと思うんですよ。

自由意志に関しては、あとでまた取り上げるとして、これで、ようやく善悪が定義できます。
さて、善悪の根本原理って、何か分かりますか?
自分の感情じゃないのは分かりますよね。
それじゃぁ、ただのルールでしょうか?
それも違います。

善悪を構成するもの。
それは、自分じゃなくて相手の感情です。
「善」を定義するとすれば、相手がプラス感情となるような行動となります。
だから、お年寄りには席を譲るべきなんですよ。
困ってる人がいれば、助けるべきなんですよ。
道にゴミを捨てるべきでないのは、道にゴミを捨てると、その町に住んでる人が嫌な思いをするからです。

感情って、本来、自分にしか理解できないことです。
それを、相手の感情を想像するんです。
その仕組みが、想像仮想世界です。
人間の意識は、想像仮想世界に自由にオブジェクトを配置して、そのオブジェクトにアクセスすることができます。
相手のオブジェクトを想像して、その感情にアクセスするんです。
すると、おばあさんは、立ってるのは辛いだろうなぁって想像できます。
そして、相手がプラス感情となるような行動をすべきってルールがあるわけです。
これだけのことが理解できて、ようやく善悪が定義できるんです。

さて、次は、自由意志について考えます。
まずは、意識レベルのおさらいです。
カエルは、現実世界を直接認識します。
だから、カエルレベルの意識は、外界に反応して行動するだけです。
犬レベルの意識になると、頭の中に仮想世界を作って、仮想世界を介して現実世界を認識します。
だから、認識したオブジェクトのプロパティを変更することができます。
これで、「オテ」とか「マテ」を覚えることができるようになりました。
人レベルの意識は、現実仮想世界に加えて、想像仮想世界を持ちます。
これによって、オブジェクト自体を想像したり、動かしたりして、自由に考えることができるようになりました。
考えるだけでなく、考えたことを行動に移すこともできます。
これが自由意志です。
こう考えると、自由意志って有るか無いかって話じゃなくて、連続する自由度の幅で捉えた方がよさそうです。
進化の過程で、意識、仮想世界、想像仮想世界といった仕組みを獲得することで、徐々に自由度が増えてきたんです。

僕らは、普通に、考えたり、悩んだりしますよね。
これ、当たり前と思ってるでしょ。
でも、これ、当たり前じゃないんですよ。
僕らの心は、巧妙に組み立てられた精密機械みたいなもんなんです。

あまりに自然に動くから、裏にある複雑な仕組みに気づかないだけです。
そのことに気づくとしたら、故障した時だけです。
たとえば脳の障害です。
最初に話した盲視も、その一つです。
盲視患者のおかげで、意識が感じてる世界以外に、もう一つ、無意識が感じてる世界があるって気づきました。
無意識は現実世界を直接認識しています。
一方、意識が感じてる世界は、現実を写し取った仮想世界です。
つまり、世界って外と内の二重構造になってるんです。

さて、僕らは、手首を曲げようと頭で考えたり、考えた通り手首を曲げたりできますよね。
これって、当たり前と思ってますよね。
でも、これができるには、巧妙な仕組みが必要なんです。
だって、頭で考えるのは内側の世界だけです。
でも、実際に曲げるとなると、内側の世界と外側の世界を同期させないといけないんです。

じゃぁ、どうやって、脳で考えた通りに手首を同期させて動かすか。
それは、こうやって手首を曲げてるとき、関節から、曲がってるってフィードバック信号が脳に送られてるんですよ。
その仕組みで同期がとれるんです。
「ふぅ~ん、それだけ」って思うかもしれません。
でも、実は、これ、ものすごく重要な感覚なんですよ。
脳の障害で、このフィードバックを一切受け取れなくなった女性がいます。
その女性、どうなったと思います。
ベッドから起き上がれなくなったんです。
いや、起き上がれないだけじゃなくて、指一本動かすことができなくなったんです。
なんでか分かりますか?

ここに、内側の世界と外側の世界をつなぐ巧妙な仕組みがあるんです。
意識が今見てる手首、これ、本当は、仮想世界のオブジェクトです。
でも、意識は、現実の手首と思って、曲がれって指令を出します。
脳はその指令を受け取って、現実の手首を曲げる筋肉を収縮させます。
でも、脳は、本当にその筋肉で正しいのかどうかわかりません。
だから、常に、確認しながら指令を出します。
その確認が、関節からのフィードバック信号です。
実際に曲がってるってフィードバック信号を受け取ることで、間違いないって確認できます。
これで、手首を曲げることができます。

もし、このとき、フィードバック信号が返ってこなかったらどうなります?
脳は、「あ、間違った」って思って、筋肉への指令を止めますよね。
これが、フィードバックを感じれなくなった女性に起こったことなんです。
指一本動かせなくなったんです。

つまり、体を動かすっていうのは、関節からのフィードバックがあって、初めて、体を動かせるんです。
動かすって情報が一巡して戻ってきて、初めて、意識は、「動かした」って感じるんです。

ようやく準備が整いました。
何の準備かというと、冒頭で説明したリベットの実験です。

被験者は、いつでも自由に指を動かせます。
でも、動かそうと思った瞬間より、350ミリ秒も前に出る脳波がありました。
これをそのまま解釈すると、意識は、動けって思わされてたってことになります。
つまり、自由意志は存在しないってことです。
それでは、謎解きを始めますよ。

さて、今、意識は、指を動かそうって思いました。
自由意志が存在するとしたら、そう思った脳波は、これになるはずです。

そして、指を動かそうと思ったとき、同時にタイマーを見ます。
その時の時刻がここです。

問題は、この差、350ミリ秒です。

さて、ここで思い出してください。
世界は二重構造になっていましたよね。
意識が見るのは内側の仮想世界です。
そして、外には現実世界があるわけです。
それから、内側の世界と外側の世界とは、同期してましたよね。
同期する仕組みがフィードバックです。
体を動かす場合なら、関節からのフィードバックを受けて、初めて、意識は動かしたと感じるんでしたよね。

実は、この仕組み、これは体を動かす場合に限らないんです。
どういうことかと言うと、目で見る世界も、同じ仕組みとなってるんです。
意識が見る内側の世界と、現実の世界とが、フィードバックで同期がとられる仕組みになってるんですよ。

意識が見る仮想世界は、無意識が作っています。
盲視の話で説明しましたけど、見たものを「何の経路」で分析して、そのオブジェクトを仮想世界に生成します。

何の経路って、たとえばVI野だと、縦線とか横線を分析します。
それから、TE野だと、顔や手といった複雑な形を分析します。
何の経路って、形だけじゃなくて、動きも分析するんです。
たとえば、MT野は、滑らかな動きを作り出します。
MT野が損傷した女性がいます。
その人は、街に出ると、自動車がパッパッパッ近づいてくるように感じるそうです。
僕らは、自動車の動きが滑らかに見えますよね。
それは、MT野が滑らかな動きを作り出してるからなんです。
つまり、無意識が作りだす仮想世界って、完璧に現実世界と同じってわけじゃないんです。
だいたい同じってぐらいなんです。
全く同じにするなんて、脳の処理能力から無理なんです。

このタイマー、滑らかに回転してるように感じますよね。
これも、MT野が、回転するタイマーを作り出してるからです。
意識が、ぼぉ~っと見る限りは、なんか回ってるなぁってことさえわかればいいんです。
これが内側の世界です。

さて、指を動かそうと思ったとき、同時にタイマーを見ようとします。
それがこの位置です。

でも、その瞬間のタイマーは、回ってるだけのタイマーです。
そこから、正確なタイマーを作り出さないといけません。
そうして、準備が整ったのがここです。

このとき、無意識からフィードバック通知が来るわけです。
この時が、意識が「見た」って感じた瞬間です。
分かりましたか?

見ようと思っただけじゃ、まだ、タイマーを見たと思ってないんですよ。
見ようと思ってから、見る準備が整うまで0.35秒かかります。
この間は、意識は時間を感じてないんです。

盲点の話をしましたよね。
無意識は、意識に矛盾のない世界を提供するために、世界の穴を埋めてましたよね。
世界の穴を埋めて意識をだますことぐらい、無意識にとったら簡単なことです。
意識が見ようと思ってから、準備ができるまでの、350ミリ秒を、一瞬の出来事だって思わすことなんか、無意識にとったら朝飯前なんですよ。
意識は一瞬と思ってますけど、外の世界で観測したら、350ミリ秒もかかってたんです。
これが、リベットの実験のトリックです。

350ミリ秒の謎は、無意識が作りだしてたんです。
全ての原因は、内の世界と外の世界が全く同じだと意識に思わためです。
そんな無茶な要求を実現するために、無意識は、今と言うこの一瞬を犠牲にしたんです。
350ミリ秒を犠牲にして、内と外の世界を一致させたるんです。
ねぇ、心が精密機械みたいに複雑だって、分かるでしょ。

さて、アニメ『エデン』に話を戻します。
テーマは、AIは人間の心を持てるかですよね。
そして、心の最終目標が愛でしたよね。
最後は、愛について考えます。

まずは、簡単な例から考えます。
AIアバターの太郎君は、花子ちゃんが大好きです。
今、太郎君は、野菜炒めを食べようとしています。
でも、ピーマンが嫌いなので、ピーマンを除けて食べようとします。

そのとき、思い出しました。
花子ちゃんは、好き嫌いする子が嫌いだって。
ピーマン除けて食べてるの見たら、花子ちゃんに嫌われる。
そう思って、我慢してピーマンを食べました。

好きな女の子に嫌われたくない。
まずは、こんな簡単なとこから始めることにしました。
ところが、これが、とんでもなく難しいんですよ。
どこが難しいかって、まず、悩むってとこです。

お腹が空いてて、おいしそうな食事が出されたら、特に、何も考えずに食べますよね。
これは、無意識で自動でできる行動です。

さて、食べようと思ったら、ピーマンを発見しました。
「おっ」って、思うわけです。
「食べたくない」って感情を意識が感じるわけです。
このとき、何が起こったかわかりますか?

無意識で行ってた行動から、自分の意志で、行動を選択するモードに移ったんですよ。
つまり、自由意志で行動選択できるようになったわけです。

ここで、重要なことをいいます。
実は、意識が感じる感情や感覚って、自由意志のためにあるんです。
どういうことかというと、たとえば、熱い鍋に触って、無意識で思わず手を引っ込めるときを思い出してください。
このとき、熱いと感じてなかったですよね。
熱いと感じるのは、手を引っ込めた後です。
そして、熱いと感じてから、意識は、その後の行動を決めることができます。

何が言いたいかって言うと、もし、最初から行動が決まってるなら、わざわざ熱いと感じる必要はないんです。
だから、無意識が手を引っ込めたときには、熱さを感じてないんです。

じゃぁ、なんで、意識は熱いと感じるかです。
それは、行動を選択できる意識に対して、行動の指針を示すためです。
「もう一回、鍋に触ることもできますよ。ただし、熱くて危険ですよ」
って、意識に警告するためです。
これが、感覚や感情の役目です。

さて、今の場合、太郎君は「食べたくない」って感じたわけです。
ということは、この段階で、意識は「食べる」も「食べない」も、行動を選択できるわけです。
ただし、最低限の行動指針として「食べたくない」って感情を作り出したんです。
まずは、これをマインド・エンジンで、どうやって再現するかです。

今、AIアバター太郎のマインド・エンジンがピーマンを認識しました。
太郎の認識したピーマンオブジェクトのプロパティには、「まずい」って設定されてるわけです。
意識プログラムは、この「まずい」プロパティを読み取って、「食べたくない」って感じるわけです。
これで、「食べたくない」がプログラムで実現できました。

ただ、これだけでは悩みになりません。
悩みになるには、もう一つ、相反する選択肢が必要です。
それは、「食べないといけない」です。

「~しないといけない」ってルールです。
ルールはスクリプト・プログラムで実現できるんでしたよね。
さっき、じゃんけんのルールのスクリプトを紹介しました。
スクリプトは、世界で起こる出来事を記述できます。
つまり、「花子ちゃんは、好き嫌いする子が嫌い」って情報も、スクリプトで書けます。
ただ、これは、じゃんけんのルールとちがって、ちょっと複雑です。
じゃんけんのルールは、自分が、そのとおりに行動するだけです。
でも、「花子ちゃんは、こういう人が嫌い」ってスクリプトは、自分の行動が書いてるわけじゃありません。

ここで、原点に立ち返ります。
今、決めようとしてるのは、ピーマンを食べるか、食べないかって行動です。
つまり、花子ちゃんの情報から、自分の行動決定に落とし込む必要があります。

プログラミングの手法の一つにエージェント・プログラムってのがあります。
エージェントっていうのは代理人って意味で、人間の代わりとなるプログラムのことです。
そこで、スクリプトに出てくる人間を、エージェント・プログラムにやらせるわけです。
まず、太郎エージェントと花子エージェントを作ります。
そして、「好き嫌いをする人」を太郎エージェントにやらせます。
その上で、「花子ちゃんは、好き嫌いをする子が嫌い」ってスクリプトを実行します。
すると、「花子エージェントは、太郎エージェントが嫌い」って結果が返ってきました。
ピーマンを食べないと、太郎君は花子ちゃんに嫌われるわけです。
つまり、ピーマンを食べないと、どうなるかって自分の行動指針が示されたわけです。

二つの行動指針が出ました。
一つは、嫌いだからピーマンを食べたくないです。
もう一つは、花子ちゃんに嫌われたくないからピーマンを食べるです。
そして、この二つを比較するわけです。
これが悩むってことです。
そして、悩んだ結果、どちらかの行動を決めるわけです。

ただ、これで終わりじゃありません。
食べると決めて、勇気を出して、ピーマンを口元に持ってきます。
ピーマンが間近に来ると、やっぱり嫌だって感じますよね。

はい、今、嫌だって感じましたよね。
意識が感じるっていうのは、自由意志の発動を意味します。
ここで、また、食べるか食べないか悩むんです。
もう一回、行動を選びなおすんです。
こうやって、何度も何度も悩みながら、少しずつ、ピーマンを食べるんです。
ただ、前回よりは、少し楽になります。
こうやって、人は、悩みながら少しずつ成長するんです。
こんなこと、動物にはできません。
精密機械のような心の仕組みがあって、初めてできるんです。

さて、今のテーマは愛でしたよね。
花子ちゃんに気に入られようと努力してピーマンを食べるのは立派ですけど、愛とは言えないですよね。
それじゃぁ、愛って、どう定義したらいいんでしょう?

これはかなり難しい問題ですけど、一つの例として、自分のことより相手のことを思うってのはどうでしょう?

『エデン』を思い出してください。
もこみは、100m走で、じんに負けたくないって思っていました。
そして、決勝戦でじんに、あと少しで勝てるところまできました。
ところが、最後に、じんを助けて、じんを勝たせました。
なぜでしょう?

それは、じんの思いを知ってるからです。
現実の世界では、走ることもできない。
でも、エデンでは思いっきり走れます。
運動会でヒーローになれます。
その思いを知ったもこみは、決勝戦でじんを勝たせたんです。
自分のことより、相手の幸せを思っての行動です。
これって、愛がないと出来ないですよね。

この時起こっているのは、さっきの悩みとは違うんと思うんですよ。
悩みっていうのは、Aする場合とBする場合って選択肢があって、どうすれば、最終的に自分が一番得するかで決めてるわけです。
でも、もこみは、どうすれば自分が得するかって視点で決めてないですよね。

ここで思い出すのが、ジル・ボルト・テイラーです。
ジル・ボルト・テイラーは、脳神経科学者で、自身が脳卒中になりました。
ジルの話は、TEDでも語られて、最も再生されたTEDトークの一つになっています。
ジルは、左脳が脳卒中になって、右脳の世界を体験しました。
脳卒中になったとき、徐々に、自分の体の境界がわからなくなってきたそうです。
壁に手をついたとき、どこまでが自分の手で、どこからが壁かわからなくなりました。
自分の体を構成する粒子が崩壊して、自分の体が、膨張するのを感じました。
そして、やがて、世界と一体となった感覚を感じました。
そこは、自分と他人、自分と物を区別するって感覚がない世界です。
そして、その時、この上ない幸福感も感じたそうです。
これが、右脳が感じる感覚です。

そして、これは、生まれる前、感じてた感覚だって思い出したそうです。
母親の羊水の中に浮かんでたときの感覚です。
全てが完璧な世界です。

そこから、この現実世界に生れ落ちました。
すると、左脳が少しずつ、世界を作り上げていきます。
まず、世界から自分を切り出します。
自分だけでなく、他の人や物など、あらゆるものを切り分けます。
切り分けることで、区別して認識できるようになりました。
すると、二つを比較できるようになりました。
自分と相手はどっちが上かとか。
そんなことを考える世界です。
それが左脳の感じる世界です。
理論的な思考ができる世界です。

右脳で考えたとき、自分も相手も区別がありませんでした。
これは、自分の存在が消えているといえるかもしれません。
相手の幸せが、自分のことのように感じられる世界です。
自然と、相手のことを思って行動できる状態です。
もしかしたら、それが愛なのかもしれません。

さて、これをAIで実現するとすれば、どうなるでしょう。
たとえば、行動決定するとき、自分の重みづけのパラメータを0にします。
そうすると、自分が消えて、100%相手の感情だけで行動を決定することができますよね。
そうすれば、相手の幸せだけを考えて行動できるでしょう。
それができたら、愛をもったプログラムと言えるんじゃないでしょうか。

それじゃぁ、パラメータは、どうやって0にするんでしょう?
意識が自分の意志で書き換えることはできないはずです。
そんなことすれば、自由意志がなくなります。
自由意志で自由意志をなくすなんて矛盾します。
おそらく、特別なプログラムがあるんでしょう。
生まれる前から組み込まれてるプログラムです。
そして、特別な状況で、そのパラメータの書き換えが発動するんです。

たぶん、人間の場合、それを実現するのは、脳内ホルモンでしょう。
特別な人や、特別な状況で、ドーパミンとか、オキシトシンが分泌されて、深い愛情を感じたり、普通じゃ取れない行動を取ったりするんでしょう。
好きな人、愛しい人に対して、自分のパラメータを0にして、相手の幸せを我がことのように感じる仕組み。
それが愛なんでしょう。

もこみは、じんを特別な存在だと感じたんでしょう。
愛しいと感じたんでしょう。
そう感じたとき、動き出すプログラムがあるんです。
自分のパラメータを0にするプログラムです。
そのプログラムが起動すると、相手の思いを自分のことのように感じます。
相手の苦しみを自分の苦しみとして感じます。
相手の幸せが、自分の幸せとして感じます。
これが愛のプログラムなんでしょうか?

さて、どうでしょう?
こんなAIアバターがいたら、もう、心をもってると言ってもいいんじゃないでしょうか?

そろそろ、まとめに入りたいと思います。
ChatGPTといった大規模言語モデルは、確かにスゴイ技術です。
大量の文書から次の単語を予測して、高精度な文章を生成することができます。
でも、その限界が見えてくるのは時間の問題です。

たとえば、僕が見た例だと、こんなのがあります。
大規模言語モデルに、深海をテーマに物語を作らせたときの文章です。
「潜水艦の壁に波がぶつかって砕けて消えた」

この文章、おかしいの、分かりますか?
潜水艦って海の中にいますよね。
波があるのは海の上ですよね。
つまり、潜水艦の壁に波が当たるって、おかしいんですよ。
たぶん、もとは、「船の壁に波がぶつかって砕けて消えた」って文章なんでしょう。
それを、船を潜水艦に置き換えて新たな文章をつくったんでしょう。
ただ、AIは、その間違いに気づきません。

なぜでしょう?
それは、AIは現実世界を知らないからです。
本物の海も波も経験したことがないからです。
だから、こんな簡単なミスをするんです。
致命的なのは、こんな簡単なミスを完全に防ぐことはできないってことです。
学習する文書を増やしたり、パラメーターを増やしたりってやり方じゃ、この問題を解決できないんです。

大規模言語モデルは、50年にも及ぶAIの歴史が辿り着いた最終回答です。
ある程度はうまく機能することは分かりましたけど、それは人間の心の仕組みとはかけ離れたものです。
人間は、何億冊の本を暗記して、単語の並びから、次の単語を予測してしゃべってるわけじゃありません。
言葉の意味を理解してしゃべってます。
考えたり、悩んだりします。
それが心です。
心その物を作らないといけないって、気付く時が間もなく来ます。

AIに人間と同じ心を持たせようと思ったら、視野を広げないといけません。
50年のAIの歴史でなくて、何万年の人類の歴史です。
サピエンス全史を書いたユヴァル・ノア・ハラリは、ホモ・サピエンスの躍進は、7万年前に起こったと言います。
7万年前に起こった脳の突然変異、これを認知革命と言います。
そのとき、脳は、虚構を生み出す想像力を獲得しました。
言語も神話もそこから生まれました。
ただ、ハラリでさえも、それが脳のなかのどういう仕組みかわからないと言います。

20世紀の終わりごろ、意識科学が生まれました。
心を科学で解明する新たな学問です。
でも、30年たった今も、最初に提唱された意識のハードプロブレムから、ほとんど進んでいません。
進んでるのは、脳科学のイージープロブレムの方ばかりです。
なぜ、心の解明は進まないんでしょう?

それは、心は内側の世界にあるからです。
外の物理世界から内の世界には到達できないからです。
心は、内側の世界で考えたり、悩んだりします。
それが主観です。
でも、主観は科学の範疇じゃありません。
科学が扱えるのは、客観的に観測可能な物理世界だけです。

僕がやったのは、心を外から解明するんじゃなくて、内から解明することです。
主観で徹底的に心を見つめ、心の仕組みを分析しました。
そうやって、精密機械のような心のモデルを作り上げました。
でも、いくら精密に分析したとしても、それは科学じゃありません。
主観でしか認識できないものは科学になりえません。

でも、逆に言えば、だから心を解明できたと言えます。
外側から内側にアプローチしたとしても、複雑な仕組みなんか、見えません。
見えるのは、入力と出力だけです。
それでシステムを作るとしたら、単語が入力されたら、次に来る単語を統計的に予測するぐらいです。
それが今のAI、大規模言語モデルがやってることです。

それが心でないことは、みんなわかっています。
でも、科学の立場に立つ限り、それしかできないんです。
意識のハードプロブレムが解決できない理由もここにあります。
科学にこだわる限り、心の仕組みは永久にわからないでしょう。

でも、さっきも言いましたけど、大規模言語モデルには限界があります。
単語の統計処理だけじゃ、意味を理解したことにはなりません。
意味を理解して、心が通った会話をするには、心を作らないといけないって、やがて、世界は気づくでしょう。

そのときこそ、チャンスだと思うんですよ。
日本が、世界をリードするチャンスです。

だって、ロボマインドは、既に心のモデルを完成させていますから。
それが、マインド・エンジンです。
マインド・エンジンの基本は、仮想世界を使って言葉の意味を理解するというものです。
言葉を、単なる文字列じゃなくて、オブジェクトに変換して扱うわけです。
そして、単語をオブジェクトで扱うという最も基本的なところは、すでに特許を取得しています。
統計処理から意味理解にAIの流れが変わるとき、この特許が生きてきます。

マインド・エンジンの仕様は、ほぼ固まりました。
次は、実装段階に移ります。
それが、プロジェクト・エデンです。

ただ、問題があります。
このプロジェクト、僕ら、数人で細々と開発してるだけです。
僕の個人資産だけで、なんとか続いてるだけです。
世界を変えるかもしれないプロジェクトが、このままだと、この世から消えるかもしれません。
そこで、今回、クラウド・ファンディングすることにしました。
資金調達も目的ですけど、それより、なにより、プロジェクトのことを広く知ってもらいたいんです。

日本を救うかもしれないプロジェクトですから、本当は、国に出資してもらいたいところです。
でも、さっきも説明しましたけど、このプロジェクト、科学の枠から外れています。
そんな怪しいプロジェクトに、国が支援するわけがありません。

だからといって、作れないわけじゃありません。
意味を理解して、心が通った会話ができるAIは作れます。
ただ、それが科学的に心だと証明できないだけです。
だから、判断が難しいんです。

今までの価値観を捨てて、中身で判断してほしいんですよ。
そのために、この動画を撮りました。
決して、難しい内容じゃないと思います。
ただ、既存のアイデアを発展させたってものじゃありません。
何もないところに突然現れた完全オリジナルなアイデアです。

こういうの、一番評価しにくいのは分かってます。
だからこそ、まずは、広く知ってもらいたいんです。
もしかしたら、どこかに、中身でちゃんと判断して、評価してくれる人がいるんじゃないかと期待しています。
よかったら、この動画を、興味ありそうな人に教えてあげてください。
SNSで拡散してください。
ツイッターなどで、「#ロボマインド」でつぶやいて下さい。
よろしくお願いします。

それから、もう一つ、お願いがあります。
ロボマインドでは、プロジェクト・エデンの開発者も募集しています。
この動画に共感した開発者、自分も、マインド・エンジンを開発したいと思った方は、ぜひ、声をかけてください。
または、そんな知り合いがいれば、ぜひ、教えてあげてください。

それから、クラウド・ファンディングのリターンの購入も、ぜひ、お願いいたします。
ロボマインドの応援、ぜひ、よろしくお願いいたします。

このエントリーをはてなブックマークに追加

“次世代AIの提言 AIの意識×言語の意味理解 Next ChatGPT【全文掲載】” への2件のフィードバック

  1. アバター karat より:

    >「潜水艦の壁に波がぶつかって砕けて消えた」

    >この文章、おかしいの、分かりますか?

    実際にChatGPTに、おかしいの、分かりますか?と聞いた結果がこれです。

    >はい、この文章は不自然であり、意味が通じないように感じます。これは、大規模言語モデルが深海の物語を理解する際に、深海に特有の状況や風景について不足していた知識を持っていたために起きた可能性があります。潜水艦の壁が海面にさらされる状況で、波が壁にぶつかって消えることは、通常の海の場合には起こり得ますが、深海では波が存在しないため、不自然な文となります。

    このような場合には、大規模言語モデルが生成した文章を人間が適切に修正する必要があります。大規模言語モデルは、あくまで人間のサポートツールであり、人間の知識と判断力が必要不可欠です。

    あんた理解できてるじゃん!と言ったら、こんな回答が。

    >はい、お話しの意図を理解し、適切な回答をすることができました。何か他にお話ししたいことがありましたら、遠慮なくお聞かせください。

    少なくとも、ChatGPTは理解しているみたいですね(^^)

    • 田方 篤志 田方 篤志 より:

      karat様

      ChatGPT、すごいですよねぇ。
      僕も、ちょくちょく、ChatGPTを触ってますけど、「なんでこんな間違いするの?」ってのと、「えー、ちゃんと理解してるやん!」の差が激しいんですよね。
      最近は、プロンプトエンジニアリングって手法が出てきてますけど、そんな手法が出る時点で、意味を理解してないってことですけど。
      マインド・エンジンと組み合わせたら、意味を理解して流暢にしゃべるようになって最強になりそうです^^;

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です