「太郎は花子が好きだ」をコンピュータに意味理解させました 「AI vs. 教科書が読めない子どもたち」批評5
「AI vs. 教科書が読めない子どもたち」には、コンピュータで文の意味を理解できない例がいくつか挙げられていますので、まずは、それらを紹介します。
「私はあなたが好きだ」と「私はカレーが好きだ」との本質的な意味の違いも、数学で表現するには非常に高いハードルがあります。(p.119)
一部のAI研究者は、・・・ たとえば、「机の上にリンゴと鉛筆がある」という文に対して、実際に机の上にりんごと鉛筆がのっている画像を合成できたら、それはAIが文の意味を理解したことになると主張します。
本当にそうでしょうか?
では、「太郎は花子が好きだ」はどんな画像にするのでしょう。(p.137)「太郎は花子が好きだ」という文は、まさにその通りの意味で、何か他のものに還元することはできません。
「花子は太郎に好かれている」と受け身に変換したり、「Taro loves Hanako」と英語に翻訳できたりしたからといって、意味を理解していることにはなりません。(p.138)
どれも、もっともな意見ですね。
それでは、「太郎は花子が好きだ」の意味理解に挑戦してみましょう。
前回、人は認知パターンに基づいて行動すると説明しました。
「太郎は花子が好きだ」の場合、「好き」という認知パターンが考えられます。
まずは、「好き」の認知パターンの意味を厳密に定義していきます。
「世界」には、「人」、「物」が存在し、「人」は「心」を持っています。
「心」は認知パターンを抽出すると、それに基づいて行動します。
これが、人の「心」の仕組みで、これと同じ仕組みのシステムを作れば、意味理解できるAIとなります。
認知パターンを構成する要素には、少なくとも「快」「不快」があります。
認知パターンに基づいて行動するとは、「不快を避け、快を求める」という行動のことです。
ボールの動きは、投げた時の力と、重力によって決まるように、人の行動を決めるのは、「不快を避け、快を求める」の原則です。
物理の力学と同様に、心の力学は、その人に作用する「快」と「不快」で決まるのです。
「快」「不快」はこれ以上還元できないもので、意味を構成する根源的な要素となります。
「好き」の意味は、日本語で記述されるわけではありません。
システムが理解するのは、システム内に構築された「世界」なので、意味は、「世界」を構成する要素で記述する必要があります。
「世界」を構成する要素とは、「世界」そのものである3次元空間と時間、「世界」に配置される「人」、「物」、そして、「快」、「不快」です。
それでは、「好き」の認知パターンの意味を定義していきましょう。
「好き」にも、様々な意味がありますが、一番広い意味として、
「主体」が、「対象」に近づくと「快」となる
というのが考えられるでしょう。
「主体」とは、「心」を持つ「人」のことで、「私はあなたが好きだ」の場合、「私」になります。
「対象」とは、「私はあなたが好きだ」の場合、「あなた」で、「私はカレーが好きだ」の場合、「カレー」です。
「好き」のさらに具体的な意味は、対象によって異なり、対象が人の場合、たとえば「抱きしめると『快』」などとなります。
対象が食べ物の場合、「食べると『快』」となります。
「近づく」とは、今より距離が近くなることです。「距離」は「世界」を構成する要素です。
「主体」は「人」で、対象となる「人」も「食べ物」も、いずれも「世界」に配置される物体です。
つまり、意味は、すべて世界を構成する要素によって記述されています。
さて、「『主体』が、『対象』に近づくと『快』」とは、好きな人が近づいてくれば嬉しいという意味です。
当たり前の感情ですよね。
逆に、嫌いなハゲ上司は、近づいてきただけで気分が悪くなります。まして、抱き付かれたら「ギャー!」と叫んで逃げだします。
行動予測ができるので、「好き」の意味が正しく定義できているといえます。
これで、「太郎は花子が好きだ」の意味が理解できました。
花子が遠くニューヨークにいるとすれば、太郎に対して「今すぐ、ニューヨークまで飛んで行って花子に会いたいよね」などと声をかけることもできます。
AIにこう言われたら、このAIは自分の気持ちを分かってくれていると太郎は思うでしょう。
明日の天気や、プロ野球速報ぐらいしか答えてくれないAIスピーカーでは、太郎の気持ちは理解できないのです。
「机の上にリンゴと鉛筆がある」の場合はどうでしょう。
「ある」とは「『世界』に存在する」と定義できます。
つまり、「机の上にリンゴと鉛筆がある」は、「世界」に「机」を配置し、その上に「リンゴ」と「鉛筆」を置くわけです。
「世界」を、3DCGで描画すれば、上下も定義できますので、「机の上」も定義できます。
「机の上にリンゴと鉛筆がある」の場合、認知パターンは抽出されませんので、それ以上の意味はありません。
つまり、「机の上にリンゴと鉛筆がある」は「文」ではありますが、何らかの言いたいことを含意した文ではありません。
友達に、「机の上にリンゴと鉛筆がある」とだけ言われても、「それがどうしたの?」としか答えようがありません。
これが、特に伝えたいことのない単なる文ということです。
以上が、コンピュータで文の意味を理解するということです。
「好き」の意味を理解するだけでも、最初に、3次元空間と時間を表現できる「世界」のモデルをシステム内に構築しなければなりません。
それができて初めて、「主体と対象の距離が近づくと、主体は快となる」と「好き」の意味を定義できます。
現在のAIブームの主流はディープラーニングを中心とした機械学習です。
大量のデータさえあれば、後は、AIが自動で学習してくれるというものです。
本書にも、機械翻訳するためには
「太郎は花子のことが好きだ。⇔Taro loves Hanako」のような対訳データが膨大に必要です。問題はその数です。100万組では焼き石に水で、1000万組ぐらい集まればだいぶましになりそうな気がします(p.148)
と述べられています。
まさに、現在のAIの状況を吐露した意見です。
1000万組集めれば機械翻訳の精度は上がるかもしれませんが、それで、「太郎は花子のことが好きだ」の意味を理解したことになるのでしょうか?
1億組をディープラーニングで学習させれば、「『主体』が、『対象』に近づくと『快』」といった意味を抽出できるようになっているでしょうか?
なりません。
なぜなら、学習させるのは、単なるテキストデータだからです。
テキストデータとは、「太郎は花子のことが好きだ」という文字列です。
この文字列からは、「3次元空間」や「快」「不快」といった概念は出てきません。
そもそも、3次元空間や、快とか不快の意味をシステムが理解していないことには、「好き」の意味を、これらの言葉で言い換えることなどできません。
コンピュータに意味を理解をさせるには、世界のモデルを作って、その中で、言葉の意味を一つ一つ定義していかなければなりません。
地道な作業です。
ですが、これをすれば、AIで文の意味が理解できるようになります。
現代のほとんどの仕事は、文書を読むことから始まります。
AIが文の意味を理解できるようになれば、人類は、かなり多くの仕事から解放されます。
AIは、文章を読んで決められた仕事はきちんとできますが、どれも同じです。
個性などありません。
やれと言われたことを黙々とやり続けるだけです。
そんな時代に、AIに代替されない人とは、やれと言われなくても好きだからする人。
何の役に立つかわからないけど、好きで好きでしょうがなくて、夢中になる物がある人。
役に立つものは、AIがやってくれます。
役に立つかどうかでしか行動できないと個性がなくなり、AIと同じになります。
そして、過去に誰かが作った物を組み合わせるだけじゃなく、全く新しいものを0から作り上げられる人。
どれもこれも、今の偏差値教育では全く評価されない人たちです。
読解能力といった指標だけを教育の指針とすることは、個性を奪い、子どもたち全員をAI化するようなものです。
AIに仕事を奪われる人とは、教科書だけ読めて、何の個性もなく、新しいものを作り出すことができない人たちなのです。
YouTubeも併せてご覧ください。
田方様。 初めまして。 いつも楽しく読ませたいただいています。
私は静岡県富士市の東名富士クリニックで院長をしております、杉山と申します。 当院では透析医療にかかわるソフトを開発(関連業者から評価は高いのですが、販売にまでは至っておりません)し、クリニックのIT化を図ってきています。 良からずんばAI化(今のところAはanalogのAですが)もしたい等と妄想を抱いています。
私自身は独学で(個人的興味で)ロボット学や人工知能・意識などを勉強しておりますが、田方さんのロボマインドは非常に勉強になり、毎回楽しみにしております。 また、AIに対する学習方法を考えると、翻ってそこから人材教育も勉強に成りますので、スタッフ教育の勉強にもなります(本来は逆でしょうが)。
何所からお話ししたらよいかわかりませんが、まずはご挨拶まで。
「心」も持つロボット。完成を期待しております。
時々ド素人のコメントや質問などを書かせたいただきますが、よろしくお願いいたします。
追記:AIまで行かないまでも「マニアル」によってですら、個性を無くしている昨今の若者の様な気がします。
杉山様
コメント、ありがとうございます。
出張に出ていまして、返信が遅くなって申し訳ありません。
僕のやってることは、AIの専門から大きく離れてまして、そんなに難しい話ではないと思うのですが、専門家からの評価は全くないものなので、病院の院長先生に読んでいただけるとは、かなり励みになります。
コメントや質問は、大いに歓迎します。
メールでも構いませんし、必要なら、お伺いして説明いたしますので。
今後とも、どうぞよろしくお願いいたします。
はじめまして。
ブログ記事を興味深く一気に読んでしまいました。
心を持ったロボットが実現に近づいているのではないかと興奮しております。
少し前に読んだ本を思い出しました。
「脳はなぜ「心」を作ったのか「私」の謎を解く受動意識仮説」という本ですが、心の謎は解明された・・・?と、興奮したものです。
この本の著者の前野隆司先生も、心を持ったロボットは作れると言って、研究に取り組んでいたと思います。未読でしたらぜひ読んでみてください。
これからもブログ楽しみにしています。
コメントありがとうございます。
僕も、前野隆司先生のこの本は、ずいぶん前に読んで、かなり参考にさせていただきました。
こういった意識の仮説を、いろんな人が提案して、それをコンピュータで実現していってほしいというのが僕の願いです。
それぞれの意識仮説を実装したコンピュータ同士を競わせて、どっちがより意識らしいか競争できるようになれば、意識科学の分野が大きく発展すると思いますし。
現在でも、チューリングテスト(ローブナー賞)などは行われていますが、中身は、どれも人工無能ばかりで、本気で意識を作ろうとしてる人は、ほとんどいません。
ディープラーニング一辺倒の現在のAIブームからは意識が生まれる気配はありませんし。
まずは、僕自身が、意識を実装したAIを世に出したいと思っています。
とても面白い内容でした。ロボットが心を持つ。とても興味深いと思います。
しかし、気になった点がひとつありました。
快と不快の感情の定義付けで強い違和感を感じました。確かに、好きな人から抱きつかれると嬉しかったり、ハゲ上司に抱きつかれたら嫌いという感情が出る人もいるでしょう。
ですが、あまりにきつく抱き締められて「痛い」という不快の感情が芽生えることもあり得ますし、ハゲ上司にも好きになるだけの魅力があって好きになる人がいないとも限りません。
人によって感情の表し方も違います。
言葉にするのか、行為で示すのか、即座に伝えるのか、しばらく経ってから伝えるのか、
まちまちです。その細かい感情の違いや、表現方法などをどうやって定義するのか?
あなたが「これは快、それは不快」と定義したところで、そのロボットはあなたの感情をただ網羅したコピーロボットなのではないでしょうか?
そして感情を完全に定義することも人間はままならないと思います。
あなたは自分の感情について完全に理解してあると胸を張って言えるのでしょうか?
それは果たして「感情を理解したロボット」
と言えるのでしょうか?
誤解しないでいただきたいのは私自身もロボットが感情を持つことを心から楽しみにしており、今の詰め込み教育に関しても不満をもっております。個性を大切にした教育こそが大事だと思っております。
ただ、あなたの理論ではロボットは感情を理解するとは言えないのではないか?という1点が気になった次第でございます。
これからのご活躍期待しています。
長々とご精読していただきありがとうございます
コメント、ありがとうございます。
ご指摘の点は、もっともだと思います。
現状の自然言語処理は、新井教授が述べるように、意味理解が全くできず、そのとっかかりさえ見えていない状況です。
その点に関し、意味理解は可能であると提案するために、意味理解できるミニマムなシステムを提示したのが、この記事の目的でした。
今回提示したのは、たとえて言えば、不快なことがあれば泣き、楽しいことがあれば笑う赤ちゃんの心のモデルです。
最低限の心のモデルがあれば、経験によって、きつく抱きしめすぎれば「痛い」という不快の感情が芽生えることも学習します。
そうして、優しく抱きしめるようになるのです。
経験を重ねて、優しくなったり、怒りっぽくなったりと、個性や性格、細やかな感情が生まれてくるのです。
新井教授へのカウンターコメントを探していてたどりつきました。関連記事をすべて拝読しましたが、いずれの記事も記載されている文字列だけではロジックが成立しておらず、もしや批判対象の書籍を正確に読解しておられないのでは・・・と感じました。
一連の新井批判の骨子となっている下記の文字列について、いずれも根拠が示されていません。この文字列から読み取れることは「結論から逆算して生成したのではと推察される事柄と思い込みが入り混じった主張」でした。
>人の行動を決めるのは、「不快を避け、快を求める」の原則
>「快」「不快」はこれ以上還元できないもので、意味を構成する根源的な要素
>「主体」が、「対象」に近づくと「快」となる
>好きな人が近づいてくれば嬉しいという意味です。当たり前の感情ですよね。
また、下記は暴論と言うしかなさそうです。
>「机の上にリンゴと鉛筆がある」は「文」ではありますが、何らかの言いたいことを含意した文ではありません。
「何らかの言いたいことを含意した文ではありません」と断言した論拠を示せますか?無理ですよね、悪魔の証明ですから。誰かを批判する際にロジックでこんな凡ミスをしていては・・・
リンゴと鉛筆だからわかりにくかったのでしょうか。では、「吾輩は猫である」――AIはこの一文の「意味」を理解できるでしょうか。
田老愛様
コメント、ありがとうございます。
「根拠が示されていない」とのことですが、これは、どういう意味でおっしゃっているのでしょうか?
「不快を避け、快を求める」の原則や、「好きな人が近づいてくれば嬉しい」といったことの根拠が、たとえば実験データ、またはネイチャーなどの権威ある学術雑誌掲載の論文で示す必要ということをいいたいのでしょうか?
ここは、関連記事を読んだだけでは、ちょっとわかりにくかったかもしれませんね。
ロボマインド・プロジェクトの目的は、人と自然な会話ができるシステムを作ることです。
自然な会話ができるシステムとは、相手の言いたいことを理解し、相手の言いたいことを受けて応答するシステムです。
研究開発ブログを最初から読んでいただければわかると思いますが、「相手の言いたいこと」とは、嬉しいとか、怒り、侮辱、嫉妬といった話し手の感じた感情(認知パターン)のことです。
たとえば、「机があります。椅子があります。壁があります。床があります。天井があります。窓があります。・・・」と延々と目に見える物を言われたとしても、相手が何を言いたいのかわからないですよね。
なぜかというと、話し手の話した内容から、何の感情も読み取れないからです。
これが、たとえば次の文の場合はどうでしょう?
「新井教授へのカウンターコメントを探していてたどりつきました。関連記事をすべて拝読しましたが、いずれの記事も記載されている文字列だけではロジックが成立しておらず、もしや批判対象の書籍を正確に読解しておられないのでは・・・と感じました。」
この文から読み取れることを書き出してみましょう。
「この記事を書いた田方はバカなのか?」
「ロジックは成立していないし、本もろくに読めてないし」
「脳みそツルツルちゃんうんか」
「この程度のことで、新井紀子様に反論できたと思うなよ!」
こんな感情がありありと読み取れますよね。
聞き手である脳みそツルツルの田方に対して期待する返答は、反論か、降伏かのいずれかになります。
「生意気なこといってごめんなしゃい」
こんな返答が返ってきたら、意味を理解した会話が成立しているといえますよね。
「新井教授は、今日もランチは、ライス大盛りだったぞ!」
こんな返答だったら、「うわ、コイツ、ヤバ! 話が通じねー!」となりますよね。
これで、「机の上にリンゴと鉛筆がある」が、「何らかの言いたいことを含意した文ではありません」の意味が分かったと思います。
脳みそツルツルちゃんでも、ここまで説明すれば、理解できましたよね♡
初めまして。
大変、楽しく、そして興味深くブログを読ませて頂いております。
また、ロボマインド・プロジェクトが1日でも早く、目標を達成される事を願っています。
ただ、1点、理解できない点がございましたので、コメントさせていただきました。
田老愛様のコメントと重複してしまうかもしれませんが、ご容赦ください。
「机の上にリンゴと鉛筆がある」は、机の上に何があるかを伝えたい(言いたい)文である
と解釈できないでしょうか?
例えば、以下のような親子が部屋の掃除をしている時の会話は「自然な会話」ではないでしょうか?(2つともに、なんの感情も読み取れない文と思われます。)
息子:「机の上にリンゴと鉛筆があるよ」
AI親父:「じゃ、リンゴは冷蔵庫へ、鉛筆は筆箱へいれておいてね」
「机の上にリンゴと鉛筆がある」は、話し手の話した内容から、何の感情も読み取れないので、
何らかの言いたいことを含意した文ではない
と定義してしまうと、上記の例のような会話、電話によるホテルの予約、同じく道案内などの「感情を伝えるのではなく、事実を伝えるための会話」がAIにはできなくなる(会話が途切れてしまう)ように思われます。
上記の例で言えば、AI親父のような応答が出来ないシステムになりませんか?
上記が、私の誤解・誤読に基づくものではないとしたならば、ロボマインド・プロジェクトの目的であるところの「人と自然な会話ができるシステム」が達成できない事になるのでは?
と懸念しております。
シーンに依存すると思われますが、話し手の話した内容から、何の感情も読み取れない文でも、「認知パターン」として扱わねばならない場合があるのではないでしょうか。
⬆️は、なんか誤解を招く文になってしまいました。
書き直しますと、「相手の言いたいこと」には、嬉しいとか、怒り、侮辱、嫉妬といった話し手の感じた感情(認知パターン)だけではなく、事実を伝えることも含まれるのでは? 含めないとロボマインド・プロジェクトの目的を達成できなくなるのではありませんか? と言うのが私の疑問です。
他にも含めるべき事象があるかもしれません。例えば、九九(2×2=4等)を子供に教える場合の会話などはどうでしょうか。
(もっとも、システムがシーン/コンテキストや会話する目的を理解しているならば、
問題無いのかも。システムがどうやってそれを知るかは、検討の余地ありですが)
長文、失礼いたしました。
美夢様
質問、ありがとうございます。
田老愛さんと、もっと議論したかったのですが、田老愛さんから返答がなく、寂しい思いをしていたところでしたので、嬉しく思います。
美夢さんの疑問も、もっともです。
ロボマインド・プロジェクトの重要なポイントは、認知パターンです。
当初は、「認知パターン」という表現でなく、単に「感情」と言ってたのですが、それを「認知パターン」と言い換えたのは、相手の言いたいこととは感情に限らないからです。
この会話文を分析してみます。
息子の言った「机の上にリンゴと鉛筆があるよ」の意味を、分かりやすく言い換えると「リンゴと鉛筆が出しっぱなしになっているけど、このままでいいの?」となりますよね。
こう言いかえると、この文に対する回答は、
「リンゴは冷蔵庫へ、鉛筆は筆箱にいれておいてね」であったり、
「リンゴは今から食べるから机の上に出してあるんだよ。鉛筆は、リンゴを食べたら宿題をするために出してあるんだよ」といった回答が考えられますよね。
これは、「机の上にリンゴと鉛筆があるよ」とういう文を、「リンゴと鉛筆が出しっぱなしになってるけど、このままでいいの?」と、何が言いたいかを明確にした文に書き換えたことではっきりしました。
この「言いたいこと」を判定するのが「認知パターン」です。
この場合なら、「ある状況が、本来あるべき状況でない → あるべき状況にすべき or あるべき状況でない理由を教えて」といった認知パターンといえます。
この認知パターンを、「リンゴが机の上に出しっぱなしになってる」という文に当てはめると、意味のある回答としては、「リンゴは冷蔵庫へ入れておいてね」、または「リンゴは今から食べるから机の上に出してあるんだよ」となるわけです。
さて、次は、「机の上にリンゴと鉛筆があるよ」を、「リンゴと鉛筆が出しっぱなしになっているけど、このままでいいの?」に言い換えることができるかという問題が残ります。
これは、部屋の掃除をしているときに出た言葉、つまり、出しっぱなしの物は片付けないといけないということを意識していた中で発せられた言葉とすると、息子が言った「机の上にリンゴと鉛筆があるよ」の意味は、「リンゴと鉛筆が出しっぱなしになっているけど、このままでいいの?」と解釈するのが当然といえます。
しかし、そのような状況でなく、突然、「机の上にリンゴと鉛筆があるよ」とだけ言われたら、何が言いたいのかわからないですよね。
何が言いたいのかわからないとは、その文から、何の感情も認知パターンも読み取れないということです。
その場合は、素直に、「だから何?」と問いかけるのが自然でしょう。
そうすれば、言いたいことが相手に伝わってないことがわかるので、わかるように言い換えてくれるでしょう。
これが、ロボマインド・プロジェクトが目指す人との自然な会話です。
それから、「電話によるホテルの予約」や「道案内」については、感情でなく、「ホテルの予約」や「道案内」という認知パターンに該当します。
認知パターンは、期待される回答がペアになっていて、「ホテルの予約」や「道案内」には、回答パターンが用意されていて、それに当てはめて回答します。
九九を子供に教えるときの会話は、「教える」という認知パターンになります。
「教える」の認知パターンの一例としては、「質問」と「回答」のペアを用意しておいて、「質問」に正確に答えることができれば「教えた内容を理解した」と判断して次に進み、間違うと、再び教えるといったことになります。
その他、状況を説明するといった場合には、すぐには認知パターンに該当せず、事実のみを伝える段階があります。
その例としては、「文の組み立て方」に、桃太郎を例に挙げて説明していますので、参考にしてください。
田方樣、
丁寧な回答、ありがとうございました。
認知パターンについては、ご説明から理解できたと思います。
> その場合は、素直に、「だから何?」と問いかけるのが自然でしょう。
> そうすれば、言いたいことが相手に伝わってないことがわかるので、
> わかるように言い換えてくれるでしょう。
上記の意味は、
どの認知パターンかを知るための質問や会話パターンを
あらかじめシステムに組み込んでおくと言う事ですね。
「人と自然な会話ができるシステム」の完成、楽しみにしております。
美夢様
はい、そうです。
後は、実装あるのみです^^
素晴らしい考えですね。
しかし、テキストを変換し3D空間に投影しなくてもネットワーク上でベクトライズすれば低い計算リソースで「意味の理解」をさせることができそうですね。
AIの「自由度」という長所を生かせる構想ですね。
敵対的生成ネットワークを使用すれば個性も生まれるかもしれませんね笑
ドラえもんができるのが楽しみですね。笑
( (̵̵́ ̐̑͟˚̩̭ ̐̑)̵̵̀⸝o̗
コメント、ありがとうございます。
3D空間は、あくまでも、3次元空間の理解が必要な会話のときに使えるって話です。
たとえば、「コーヒーをこぼして、ズボンが汚れたよ」みたいな会話の意味理解とかです。
その他に、いろんな方法で意味理解は実現できると思います。
最終的には、敵対的生成ネットワークで、いかにも存在しそうな人間の人格が生成できるでしょうね。