東ロボくんは、なぜ失敗したのか 「AI vs. 教科書が読めない子どもたち」批評1

東ロボくんは、なぜ失敗したのか 「AI vs. 教科書が読めない子どもたち」批評1

2018.04.05
このエントリーをはてなブックマークに追加

 

現在、AI関連の書籍で、「AI vs. 教科書が読めない子どもたち」という本が売れているようです。
著者は、AIロボを東大に合格させる「東ロボくん」というプロジェクトで有名な新井紀子教授です。

「東ロボくん」プロジェクトには、当初から興味があったので、さっそく読んでみたのですが、自然言語処理の浅い理解や、「知能=偏差値」という思い込みなど、著者の主張には首をかしげざるを得ないことが多かったので、今回から何回かにわけて、本書について解説していきます。

 

AIが、大学の入試問題を解くとなると、数学や歴史の穴埋め問題なら勝算はあると思いますが、一番苦戦するのは国語です。
なぜなら、現在の自然言語処理では、文章の意味を理解することができないからです。
英語の翻訳なら、意味を理解できなくとも、それらしい翻訳を作り出すことは不可能ではありませんが、文章の意味理解そのものを問う国語の問題があるかぎり、東大合格など絶対に不可能なのです。

そのような一見、無謀なチャレンジですが、国の予算を獲得し、税金を投入するのですから、何らかの秘策があるのだと楽しみに読み始めました。
ところが、そのような期待は、見事に裏切られてしまいました。

国語は、どう考えても正攻法でなんとかできるとは思えません。(p.92)

と堂々と宣言しているのです。
最初から無理とわかっていながら、なぜ、挑戦したのでしょう?
もしかしたら、思いもよらない解決手法を編み出したのかもしれません。
それに期待しつつ読み続けると、たしかに、驚くべき手法が書かれてありました。

センター現代国語で最も配点の大きい傍線部の問題に対し、文字の重複などごく表面的なことから選択肢を選ぶという「荒業」でした。
文の意味どころか、単語の意味も調べません。(p.92)

えっ、嘘でしょ?!
内容を理解せずに答を出すって、受験で一番、やってはいけない勉強方法です。
当然のことですが、この程度のプログラムで東大に合格することなどできません。

この方法で論説文の傍線問題は早々に正答率五割に達しました。しかし、そこから先の成長は見込めませんでした。(p.92)

当たり前です。
そんな簡単な方法で解けないことは、受験生なら誰でも知っています。

ここまでくると、東ロボくんの目的が何なのか、さっぱりわからなくなりました。
本書をよく読んでみると、東ロボくんの目的が書いてありました。

私を含めた関係者の中に、近い将来にAIが東大に合格できると思う人は一人もいませんでした。
本当の目的は、AIにはどこまでのことができるようになって、どうしてもできないことは何かを解明することでした。(p.20)

目的は、東大合格ではなく、AIにどこまでのことができるかを解明することのようです。
そうして、AIでどこまでできるか解明できたこととは、入試問題で、文字の重複から選択肢を選ぶ方法では、正答率5割が限界だということのようです。
税金と多くの研究者を投入して解明できたことにしては、少しお粗末と言わざるを得ません。

もっと重要なことが解明できたのではと期待を持って読み続けましたが、その期待も空振りに終わりました。
たとえば、

「中学生が身につけてる程度の常識」であっても、それは莫大な量の常識であり、それをAIやロボットに教えることは、とてつもなく難しいことなのです。(p.98)

と、AIは常識がわからないことが問題だと、さも重要そうに述べていますが、この程度のことは、AIの入門書に書いてあることです。
AIに興味がある人なら、誰でも知っていることです。

その証拠に、

過去2度のAIブーム同様に、「常識の壁」に阻まれたのです。(p.102)

と自分でも書いています。
「常識」が理解できないことがAIの壁となっていることは、50年前からわかっていることです。
AIに何ができないかを解明することが目的といっていましたが、何一つ、目新しいことは解明できていません。

これが、東ロボくんプロジェクトの結果です。
残念ながら、何かしらの有意義な成果が得られたとはとても思えません。

なぜ、このようなことになってしまったのでしょう?

その原因は、「自然言語処理への提言2」で説明したのと、全く同じ理屈です。
自然言語処理が、この50年、ほとんど進歩していない理由は、「人と自然な会話ができるAI」といった大きな目標を目指したからというのが、「自然言語処理への提言2」で指摘したことです。

会話システムの例として、シナリオベースの例を挙げます。
AIが「最近、何かおいしいものを食べましたか?」と質問することで、相手の回答を、自然と食べ物に絞り、「僕も食べたかったなぁ」と回答することで、いかにも、会話しているように見せかけるシステム。
人工無脳ともいわれるシステムで、ソフトバンクのロボット「ペッパー」や、IBMの「ワトソン」、マイクロソフトのチャットボット「りんな」など、すべてこれに当たります。

これだと、言葉の意味を理解しなくても、一見、相手に会話が成立しているように見せることができます。
しかし、会話の本質は言葉の意味の理解です。
その本質を避けて、表面だけ、あたかも会話しているように見せかけるテクニックを競ってきたのが、会話システムの歴史です。

なぜ、このようなことになったのでしょう?
それは、目標設定の仕方に問題がありました。

目標を「会話」としてしまうと、表面的な会話の部分ばかりに開発の力を注いてしまっていたのです。
逆に、本来、最も重要となる意味理解という部分の開発に目が向かなくなってしまうのです。
これと全く同じことが東ロボくんにもおこっていました。

東大に合格するという目標を立ててしまうと、なんでもいいから、設問に正答さえすればいいという点に力を注いてしまい、本文と選択肢の文字の重複を数えるといった表面的なテクニックに走ってしまっていたのです。
本来、やるべきことは、文の意味を理解して設問に答えることなのですが、最初から、意味理解は無理だと放棄してしまっているのです。
高い目標があだとなり、あまり実用的とは言えない選択肢回答プログラムといった開発にリソースを費やしてしまったのです。

本来の目的である、「AIにどうしてもできないことの解明」についても、新たな発見がないことから、東ロボくんの挑戦は失敗に終わったといえます。
ところが、東ロボくんの開発の過程で、現在の日本の子どもたちの大きな問題に気づいたと、新井教授は言います。
次回は、その点について説明したいと思います。

 

このエントリーをはてなブックマークに追加

コメントを残す