フレーム問題は解決済み -フレーム問題に見る、AI史の闇ー

フレーム問題は解決済み -フレーム問題に見る、AI史の闇ー

人工知能、最大の難問「フレーム問題」は存在しない

このエントリーをはてなブックマークに追加

 

AIの歴史について調べていると、必ず出てくるのが人工知能最大の難問と言われる「フレーム問題」です。

フレーム問題の話が出てくるたび、「最大の難問と言われるけど、これって、どこが難問なの?」といつも思っていました。
「普通に考えれば簡単に解ける問題を、無理に難しくしているだけじゃないの?」と。
ところが、時代背景も考慮して、改めてフレーム問題について調べてみると、おぼろげに、その真の意味が見えてきました。

フレーム問題を提唱したのは、計算機科学者のジョン・マッカーシーです。
フレーム問題の例は、いろいろあるようですが、一番有名なのが、哲学者のダニエル・デネットのロボットの話です。

それでは、さっそく、デネットのロボットの話を、wikipediaから以下に引用します。

 

状況として、洞窟の中にロボットを動かすバッテリーがあり、その上に時限爆弾が仕掛けられている。
このままでは爆弾が爆発してバッテリーが破壊され、ロボットはバッテリー交換ができなくなってしまうので、洞窟の中からバッテリーを取り出してこなくてはならない。
ロボットは、「洞窟からバッテリーを取り出してくること」を指示された。

人工知能ロボット1号機R1は、うまくプログラムされていたため、洞窟に入って無事にバッテリーを取り出すことができた。
しかし、1号機はバッテリーの上に爆弾が載っていることには気づいていたが、バッテリーを運ぶと爆弾も一緒に運び出してしまうことに気づかなかったため、洞窟から出た後に爆弾が爆発してしまった。
これは、1号機が、バッテリーを取り出すという目的については理解していたが、それによって副次的に発生する事項(バッテリーを取り出すと爆弾も同時に運んでしまうこと)について理解していなかったのが原因である。

そこで、目的を遂行するにあたって副次的に発生する事項も考慮する人工知能ロボット2号機R1-D1を開発した。
しかし、このロボットは、洞窟に入ってバッテリーの前に来たところで動作しなくなり、そのまま時限爆弾が作動してロボットは吹っ飛んでしまった。
2号機は、バッテリーの前で「このバッテリーを動かすと上にのった爆弾は爆発しないかどうか」「バッテリーを動かす前に爆弾を移動させないといけないか」「爆弾を動かそうとすると、天井が落ちてきたりしないか」「爆弾に近づくと壁の色が変わったりしないか」などなど、副次的に発生しうるあらゆる事項を考え始めてしまい、無限に思考し続けてしまったのである。これは、副次的に発生しうる事項というのが無限にあり、それら全てを考慮するには無限の計算時間を必要とするからである。

ただ、副次的に発生する事項といっても、「壁の色がかわったりしないか」などというのは、通常、考慮する必要がない。
そこで、目的を遂行するにあたって無関係な事項は考慮しないように改良した人工知能ロボット3号機R2-D1を開発した。
しかし、このロボットは、洞窟に入る前に動作しなくなった。3号機は、洞窟に入る前に、目的と無関係な事項を全て洗い出そうとして、無限に思考し続けてしまったのである。
これは、目的と無関係な事項というのも無限にあるため、それら全てを考慮するには無限の計算時間を必要とするからである。
事程左様に、人間のように判断することができるロボットR2-D2を作るのは難しい。

引用終わり

言いたいことは、何となくわかります。
解説などを読むと、現実世界の問題を解決するには、無限の可能性があり、すべて検討するわけにはいかないので、枠(フレーム)を当てはめて、関係のない物事を除外する必要がある。
ところが、どこがフレームの内(関係のあること)で、どこがフレームの外(関係のないこと)かを判断することができないので、結局、いつまでたっても問題が解決しないとのことのようです。

解説の意味は理解できますが、それでも、いくらでも解決方法はあるんじゃないかと思っていました。
なんで爆弾をどけるのに、天井が落ちるとか、壁の色がかわるとか考える必要があるのかと。
そもそも、ここで想定しているデータベースは、どんなデータベースだろうかと。
リレーショナル・データベースなら、どんなSQL文を発行すれば、フレーム問題が生じるのか、ちょっと想像できませんでした。

また、爆弾が爆発するまでロボットが停止するなど、いったい、どんな設計をしているのかと。
ロボット制御用のOSなら、組み込み用のリアルタイムOSを使うはずですが、爆発物を扱うようなクリティカルな処理をするなら、最優先の割り込みでタイムアウトを設定するはずなのに、爆発するまで考え事をするとは・・・。

 

しかし、フレーム問題が提唱された時代背景を考えてみると、ようやく、ジョン・マッカーシーの言いたいことが見えてきました。
フレーム問題が提唱されたのは、1969年のことです。
これは、第1次AIブームの終わり頃です。

調べてみると、リレーショナル・データベースが最初に出てきたのは、1974年で、最初のリアルタイムOSが生まれたのは1979年で、ジョン・マッカーシーは、そのようなものは全く想定していなかったようです。

それでは、どのようなものを想定していたのでしょう。
第1次AIブームの主流は、簡単な推論/探索です。迷路を解く人工知能などが有名でした。
迷路で分岐が現れると、順に分岐を探索し、行き止まりになると、元の分岐まで戻り、次の分岐を探索する。
このような手順をスタートから繰り返していけば、いずれ、ゴールに辿り着くのです。これが推論/探索です。

この推論/探索を想定して、先のロボットの話を読み解いてみましょう。
上に爆弾が乗ったバッテリを取ってくるという命題に対して、バッテリを動かせばどうなるか、爆弾を動かせばどうなるか、といった様々な分岐が考えられます。
副次的に発生する事項とは、迷路の分岐を想定しているのです。
そして、分岐した次には、さらなる分岐があるでしょう。

バッテリを動かして、爆弾が動いた場合と動かなかった場合、
バッテリを動かして、壁の色が変わった場合と変わらなかった場合、
バッテリを動かして、・・・

現実世界には、いくらでも分岐が考えられるので、すべての分岐を探索するには無限の時間がかかります。
これが、ロボット2号機です。

2号機を改良した3号機も同様で、目的と無関係な分岐を探索しないようにしても、現実世界には、目的と無関係なものも無限に存在するので、探索に無限の時間がかかってしまうのです。

ジョン・マッカーシーが指摘したかったのは、このような推論/探索では、迷路のような単純な問題は解決できるかもしれないが、現実世界は複雑で、AIでは簡単に解決できないということのようです。

それでは、なぜ、そんなことを言い出したのか。
当時の時代背景を見てみましょう。

1950~60年代の第1次AIブームは、迷路などの問題をコンピュータで解くことが実証され、やがて、あらゆる問題をAIで解決できると期待され、国や企業から多額の投資を受けていました。
それは、まさにディープラーニングが登場した、現在の第3次AIブームと同じです。
ジョン・マッカーシーは、さしずめ、グーグルに買収され、囲碁の世界チャンピオンに勝ったディープマインド社のデミス・ハサビスCEOといったところでしょう。
しかし、迷路などの簡単な問題(トイ・プロブレム)は解決できたものの、現実問題では成果が表れず、1970年代に入ると、AI研究への出資が急激に無くなり、第1次AIブームが終了することになりました。

穿った見方をすれば、第1次AIブームのスターだったジョン・マッカーシーは、拡大するAIブームの期待と重圧に耐えきれず、自らAIブームを終了させようとしたのかもしれません。
AIで現実世界の課題を解決することは根本的に不可能だと証明するためにフレーム問題を提唱したのかもしれません。

他でもないジョン・マッカーシーがAIは理論的に現実問題を解決できないと宣言したのですから、1970年代に入って、急速にAIブームが収束したわけです。
こういう背景を考えると、フレーム問題の不自然さも理解できます。
爆弾を移動させるのに壁の色が変わるかまで考えるとか、現実問題を解決できないジョン・マッカーシーのいら立ちと必死さが伝わってきます。

フレーム問題とは、なぜ、AIが現実問題を解決できないかを無理やり説明するために作り出された問題なのです。
ジョン・マッカーシーの言い訳のための理論なのです。

 

それでは、第1次AIブームから50年以上経った現代なら、フレーム問題は解決できるでしょうか。
試しに解いてみましょう。

まず、ロボットは外部の状況を把握します。
これは、画像認識でできます。
洞窟の中で、バッテリの上に爆弾が載っていると認識します。
最新のAI技術では、写真に何が写っているかを判定するテストなら、人間より精度が高くなってきましたので十分可能です。

次に、認識した物体から3Dモデルを生成します。洞窟の中で、バッテリの上に爆弾が載っている状況を3Dモデルで再現するわけです。
これも、現在の技術で問題なくできます。
物体を認識するとは、その物体に関する様々な情報も含まれています。
洞窟には天井や壁があるとか、洞窟の壁は何色かといったことです。

また、3Dモデルなので、物理シミュレーションもできます。
シミュレーションを行うと、バッテリを洞窟の外に移動させると、その上に載っている爆弾も移動することが確認できます。
ここから、そのままバッテリを移動してはダメだとわかります。

目的は、上に載っている爆弾を洞窟に残したまま、バッテリだけを洞窟の外に移動させることです。

ここで、目的達成までを、いくつかのステップに分割します。
まず、現在の状況は、バッテリの上に爆弾が載っています。

次に目的の状況です。
洞窟の外にバッテリがあって、洞窟の中に爆弾があります。

もし、爆弾がバッテリの上に載っていなければ、バッテリを移動させればバッテリだけを洞窟の外に持って行くことができます。
この爆弾がバッテリの上に載ってない状況を中間状況とします。

次に、現在の状況と、中間状況を比較します。
すると、違いは、バッテリの上に爆弾が載っているか載っていないかです。
つまり、バッテリの上に爆弾が載っている状況から載っていない状況にすればいいのです。
バッテリの上に爆弾が載っている状況から載っていない状況にするには、バッテリの上の爆弾をバッテリの外に移動させればいいわけです。
物体を移動させるには、ロボットのアームを使えば可能です。
ロボットのアームで、バッテリの上から外に爆弾を移動させれば中間状況になります。これで、バッテリだけを洞窟の外に持ち出すことができます。
ここまでを、シミュレーションによって確認できれば、あとは、シミュレーション通りに実際に行動するだけです。

どうでしょう?
なんの問題もありませんよね。

 

それでは、どこでフレーム問題を回避したのでしょうか?

フレーム問題で前提としていたのは、迷路探索のような問題です。
通路には複数の分岐があって、正しい分岐を選んだ場合のみゴールに辿り着きます。

迷路だと、一つの通路に分岐はせいぜい2~3個で、全ての分岐を計算することは十分可能です。
ところが、現実世界だと、壁、天井などの要素があり、壁には、壁の色、壁の硬さ・・・など、無数の要素があります。

たしかに、現実世界で全ての要素を調べていては無限の時間がかかります。
しかし、迷路探索と、爆弾が乗ったバッテリを取り出すこととは同じ問題といえるでしょうか?

迷路では、分岐は、どれも全く同じに見えます。
どの道が正しいかは見ただけではわかりません。
実際に分岐に入って、行き止まりかゴールに辿り着くか調べてみないとわかりません。

爆弾が乗ったバッテリを取り出す場合も、全て調べてみないとわからないでしょうか?
見ただけで、どちらが重要かわからないでしょうか?
たとえば「バッテリを動かすと爆弾も動くか?」と、「バッテリを動かすと壁の色が変わるか?」といった場合です。
どちらが重要でしょう?

そんなこと、明らかですよね。
壁の色が変わるかどうかなんか、調べる必要がないほど重要度が低いですよね。

つまり、現実世界は迷路と違って、選択肢に重要度をつけることができます。
重要度の大きいものをフレーム内、小さいものをフレーム外とみなすことができるわけです。
このように区別すれば、簡単にフレーム問題を回避することができるのです。

ジョン・マッカーシーは、AIロボットを現実世界で動かすと、あらゆる可能性を考えて動かなくなると指摘しました。
しかし、それは、迷路の問題を、そっくりそのまま現実世界に適用した場合にしか成り立たない、あまりにも単純な思考実験です。

迷路のように、分岐が全く同じで区別がつかないという特殊な状況の場合にのみ生じる問題で、現実世界ではありえない状況です。
そのような非現実的な問題が、未だにAI最大の難問などと言われ続けています。

フレーム問題は未だに解決できないなどと語るのは、そろそろ終わりにしませんか?

 

このエントリーをはてなブックマークに追加

“フレーム問題は解決済み -フレーム問題に見る、AI史の闇ー” への77件のフィードバック

  1. 通りすがり より:

    >人間が普通に考えるように、ロボットに考えさせれば、フレーム問題など生じないのです。
    なんか極めて短絡的ですね。
    >ポイントは、探索範囲を、目的達成に必要な行動に絞ることです。
    どのように絞るのでしょうか。ヒューリスティックスを用いるのでしょうか。
    絞ることで予想外の結果が生じないのでしょうか(爆弾を運び出す、等)。
    論理が破綻していますよ。

    • 田方 篤志 田方 篤志 より:

      質問、ありがとうございます。

      >人間が普通に考えるように、ロボットに考えさせれば、フレーム問題など生じないのです。
      なんか極めて短絡的ですね。
      >ポイントは、探索範囲を、目的達成に必要な行動に絞ることです。

      これは、目的達成に関係が近い順に順位付けして探索します。
      具体的には、目的であるバッテリに物理的距離が近い方に高いポイントを付与し、距離が遠いものに低いポイントを付与するとか。
      または、バッテリを運び出す経路上にあるものに高いポイントを付与するとか。
      このような方法は、人間が普通に考えることですよね。

      そして、所定のポイント以下の事に関しては、探索範囲から除外します。
      こうすれば、壁の色が変わるとか、バッテリを運び出す目的とはあまり関係がないことまで探索することはありません。

      探索範囲を絞らず、無限に探索し続けるプログラムを作るなど、普通のプログラマーならあり得ないことです。

      なぜ、こんな単純な点を誰も指摘しないのか、これが、僕にっての、フレーム問題の最大の謎なんです^^;

      絞ることで予想外の結果が生じないのでしょうか(爆弾を運び出す、等)。
      論理が破綻していますよ。

      条件に、「爆弾を運び出さない」を付け加えれば、爆弾を運び出すとことはないです。
      条件の追加は、今までの経験から、追加します。
      前回、爆弾を運び出してしまったという痛い経験をしたので、次は、そうしないように条件を付けて探索するわけです。
      これも、人が普通にすることですよね。

      絞ることで、予想外の結果が出たとすれば、学習によって、次回は改善する。
      論理が破綻しているとはいえないと思いますが、いかがでしょう。

  2. ななし より:

    もしシミュレーション中に地震が起きたら…、もしシミュレーション中に爆弾が発光しだしたら…、もしバッテリを移動させることで出入り口が閉まったら…
    これらの人間であれば「普通は起こりえない」と考えることも全て計算しようとしてしまい、結果行動できなくなる。

    これがフレーム問題であるハズなのですが、本文の説明でそのような計算は一切行われていませんよね。
    あらかじめ設定された動作を行っているだけで、これではAIロボットではなくAIで物体を認識して持ってくるロボットのような気がするのですが、、、

    • 田方 篤志 田方 篤志 より:

      質問、ありがとうございます。
      「もしシミュレーション中に地震が起きたら、もし爆弾が発光したら・・・」といった仮定を全て計算していれば、確かに、フレーム問題が起こりますよね。
      僕が提案しているロジックは、可能性のある全ての仮定を先に検討するのでなく、もし、検討していない事象が起こったら、起こったときに考えればいいというものです。

      あらかじめ設定された動作を行っているだけで、これではAIロボットではなくAIで物体を認識して持ってくるロボットのような気がするのですが、、、

      これは、目標とすAIをどこに設定するかにかかわってきますが、ここでは、人間と同じ程度の知能のAIを目指しています。人間を超えるAIは目指していません。
      そう考えれば、人間も、バッテリを持ってくるのに、あらかじめ設定された動作を行っているだけといえます。
      物体を認識して持ってくるだけです。

      どんな状況であっても、必ず、バッテリを持ってくるといった人間を超えたAIを目指すのであれば、たしかに、あらゆる状況を想定しなければならず、フレーム問題から逃れられないと思います。
      そうでなく、人間と同程度の知能を求めるのであれば、まずは、決められた動作をして、それがうまくいかなければ、うまくいかなかった原因を考慮した別の動作を試して・・・と、すればいいのではないでしょうか。
      実際の人間も、このように行動すると思われますので。
      人間に対しても、「考えられるあらゆる状況を考慮してからバッテリを持ってこい」と命令すれば、フレーム問題に近い状況が起こるでしょう。

      「フレーム問題」というのは、AIの根本的な問題をあぶりだすのに、あまり良い問題とは言えないですが、なぜか有名になってしまったようです。
      意識のハードプロブレム」や「シンボルグラウンディング問題」の方が、AIの本質に迫る問題と思います。

  3. 通りすがり より:

    https://en.wikipedia.org/wiki/Frame_problem
    フレーム問題は爆弾などの面倒な状況に限らず、ドアの開閉をするだけの単純なAIにも発生します。
    なので爆弾処理の方法を具体的に考えたとしても、特にフレーム問題全般を解決できたということにはならないのでは。

    • 田方 篤志 田方 篤志 より:

      質問、ありがとうございます。
      確かに、ドアを開閉する場合でも、「ドアを開けようとして、ドアノブがはずれたら」といった、考えられるあらゆる事態を考慮すればフレーム問題が発生しますよね。
      でも、人間の場合、フレーム問題は発生しません。
      なぜかというと、人間の場合、まず、ドアを開けようと行動して、万一、ドアノブが外れたら、その時にどうするか考えるからです。
      なので、人間と同じように、まず、ドアを開けようと行動して、ドアノブが外れたら、どうするか考えるようにプログラムすれば、フレーム問題は発生しません。

      フレーム問題というのは、現実世界でロボットが行動しようとすれば必ず発生する不可避の問題というものではなく、フレーム問題が発生するようにプログラムすればフレーム問題が発生し、フレーム問題が発生しないようにプログラムすれば、フレーム問題が発生しないのです。

      フレーム問題というのは、これだけの話なのです。

  4. 少しだけ読んだ人間 より:

    人間と同じ程度の知能のAIを作成する理由(意義)は、この論説のどこの部分を読めばよいのか、教えてください。

    • 田方 篤志 田方 篤志 より:

      お問い合わせありがとうございます。
      「人間と同じ程度の知能のAIを作成する理由(意義)」は、この記事には、特に明記していないですが、この考えは、おそらく、AIを開発してるほとんどの人に共通の意見だと思います。
      まずは、人間が普通にできることをAIでもできるようにしようということです。
      今のAIには、普通の日常会話もできませんので。
      それが達成できてから、次の段階に進むことになると思います。

  5. 名無し より:

    >>フレーム問題が発生しないようにプログラムすれば
    これが難しいからフレーム問題などと呼ばれているのでは?

    >>洞窟を、洞窟として認識しているので、洞窟の壁の色なども認識しています。ですが、バッテリを洞窟の外に出すのに、壁の色が変わるとか、天井が落ちないとか、目的と関係のないことを考える必要などありません。
    洞窟や色はバッテリを外に持ち出すのに関係がなく,爆弾は関係あるというのはどのようにロボットに判断させるのでしょう.

    • 田方 篤志 田方 篤志 より:

      質問、ありがとうございます。

      洞窟や色はバッテリを外に持ち出すのに関係がなく,爆弾は関係あるというのはどのようにロボットに判断させるのでしょう.

      これは、前もって知識として持っていればいいでしょう。
      物を移動させるには、その物を持って運び出すといったような知識です。

      本文にも書きましたが、当時のAI技術から判断して、フレーム問題が前提としているのは推論/探索問題です。
      ところが、現在のコンピュータ技術だと、3DCGを使ったシミュレーションなど、いくらでも解決する方法は考えられます。

  6. うーん、仰る「フレーム問題を起こさないようにプログラムされたAI」は、たとえ話でいう処の1号機ロボットのことではないでしょうか。不測の事態を考慮しない、不測の事態に対処ができないロボット。
    対象の周囲だけ計算する、っていうのも、周囲以外で何か起きたらバッテリー持ち出しに失敗するわけですよね。

    失敗しない融通の利くロボットにしようとすると2号機3号機になるという、そういう話では?

    • 田方 篤志 田方 篤志 より:

      コメント、ありがとうございます。

      対象の周囲だけ計算する、っていうのも、周囲以外で何か起きたらバッテリー持ち出しに失敗するわけですよね。

      確かに、おっしゃるとおりです。
      ただ、これはロボットだけでなく、人間でも起こり得る話ですよね。
      人間の場合、この問題を解決しようとしてもフレーム問題は起こりません。
      なので、人間と同じ解決策のプログラムを作れば、フレーム問題は起こらないわけです。
      数ある解決策の一つが、フレーム問題を起こす解決策というだけなのです。
      「フレーム問題」の話は、解決策が、その一つしかないとミスリーディングしているとも言えますね。

  7. h.roshi より:

    この記事の技術的なことは良くわかりませんが、主旨には基本的に賛成です。私は「フレーム問題」は単なる勘違いと思っていました。
    与えられた課題が何の失敗もなく一発で解決できるとする幻想が元になっている。生物は30億年かけて多くの失敗を乗り越えて進化してきました。
    人間も失敗の記憶や推察ができる範囲でしか失敗を防げません。想定外には基本的に対応できません。
    機械に想定外でも対応できるよう期待するのは勘違いでしょう。神でない人間の作るものなので基本的には想定外を克服できません。

    • 田方 篤志 田方 篤志 より:

      コメントありがとうございます。
      おっしゃる通り、完璧な回答を目指せば、いつまでたっても動きだすことはありません。
      程よいところで探索を止めて動き出すっていうのが、人間らしくもあり、AIもそれを目指さないといけませんね。

  8. h.roshi より:

    ロボットに完璧な回答を見つけさせるなら、そのまえにAI研究者は完璧とは何かを定義しないといけませんね。これは明らかに不可能でしょう。
    少し専門的な言葉で書かれると、大抵の技術系の人は簡単に勘違いしてしまうものですね。私もエンジニアとして気をつけたいです。

    • 田方 篤志 田方 篤志 より:

      そうですね。完璧とか無限とか、理論だけでは現実問題は解決できないです。
      エンジニアは現実との折り合いを考えないといけませんね。

  9. Mill より:

    What you are making is not artificial intelligence. What about doing artificial intelligence with intelligence equivalent to just human beings? Our researchers have to fight against the frame problem from the top. I do not understand why you are not trying to evolve.

  10. PC06 Allgrow より:

     お邪魔します。

     田方さんのお考えは「人間がそうするように、何か起きたときに考えればよい」、そして「解決策をあらかじめ教えておけばよい」というお考えだと思います。あるいは「解決策を調べる方法を知っていればよい」でもいいのかな。
     その線で思考実験してみます。H・サイモンとA・ニューウェルが「人間の思考をシミュレートする」ことを目指して考案したGPS(1957年)のイメージで。

     たとえばAIロボットに、「庭の木を1本切り倒せ」と命じるとしましょう。この命令を理解するだけで、膨大な下位問題が生じます。「庭ってなに?」、「どの木のこと?」、「切り倒すってどういうこと?」など。「となりの鈴木さんちの庭じゃなくてウチの庭な」と言わなくてもわかっててほしいです。今の水準のAIより高度になってないといけないことは確かでしょう。

     さて命令は理解したとして、実行の段で「太さはどのくらい?」、「切るのに何が必要?」などの下位問題が生じます。太さを測るのは、まあ簡単。手段については、AIはYoutubeで動画を見つけて(5Gで受信、脳内再生)、チェンソーが一番良さそうだと知ったとします。しかし家にはチェンソーがない。次くらいに効率的そうな斧もない。そこで「『チェンソーがない』で検索」→「ふむふむ、『買う』ことができそうだ」→「お金が必要だ」→私に向かって「お金をください」→私「ない」→「『お金がない』で検索……銀行でおろせばいい!」→「キャッシュカードをください。暗証番号を教えてください!」→私「ほい。暗証番号は8801な」→「最寄りの銀行を検索、移動手段を検索」……

     で、移動を開始するわけです。途中、近所の悪ガキにどつかれたり、信号待ちの間に犬に小便かけられたり、いろんな人とすれ違ったり投げキス受けとめたり投げ返したりしますが、その都度何とか対処法を検索して実行し、ようやく銀行に着きます。ATMの前に立ったところで銀行員が見とがめ、AIロボットを制止しようとします。そりゃそうでしょう。しかしAIロボットは、さきほど近所の悪ガキにどつかれたときにYoutubeで合気道の動画を見て学んでいたので、簡単に妨害を排除しました。(銀行員、だいじょうぶか?)キャッシュカードを挿入、暗証番号を打ち込んで、金額を指定。しかし、ATM「残高不足でおろせません」。しかしAIロボット、決して心が折れることはありません。再度「お金がない」で検索。→AI「消費者ローンに行こう!」そして私のスマホを鳴らし、「免許証か健康保険証はありますか。あったら貸してください」と。で、私「ないよ。どっちも」。私、滞納してるので。
     AIロボットはなおもネット検索。過去起きた事件のニュースを参考に、最寄りのビジネスキオスクで私の免許証を偽造し、さらに3Dプリンターで私の顔のお面をつくり、それを自分の顔につけて「むじんくん」に入りました。しかしアコムのAIも優秀です。「私」があまりにも無表情でまばたきもせず、住所や生年月日を答えるときも唇を一切動かさないことから不審に思い、免許証も偽造と見抜いて融資を断ります。「ちがうだろー!」と。
     「むじんくん」を追い出されたAIロボットはなおも検索します。そしてYoutubeで動画を見て、対処法を見つけました。ホームセンターに行き、電動タイプのチェンソーを手に取り、プラグを自分の身体の電源供給ソケットにつないでやり、スイッチを入れてチェンソーを振り回しながら、なるべく早足でホームセンターから出て家に戻る……という行動を選択しました。

     おや? ほんとだ。フレーム問題生じない。
     どんどん悪の道に足を踏み入れてますが、フレーム問題は起きてないですね。

     ただ、たぶん「私のお面」つけたままチェンソー振り回してますよね。そして何台ものパトカーを先導しながら「私」の家に向かってますよね。私、どうなっちゃうんでしょう。「『木を切り倒せ』とは言ったが、『(悪ガキや銀行員に)ケガをさせろ』とは言っていない」と言えば、許してもらえるでしょうか。

    • 田方 篤志 田方 篤志 より:

      コメントありがとうございます。
      楽しく読ませていただきました。
      この話は、洞窟からバッテリーを取り出そうとするとロボットが固まってしまうというフレーム問題をはるかに超えていますが、AIの今後を考えると、避けて通れない問題だと思います。
      つまり、AIが自分で思考し、行動するようになった場合、目的遂行するAIロボットは、人間社会と協調できるかという問題になると思います。
      この点についてロボマインド・プロジェクトの出した答えは、善悪や感情といった認知パターンを最上位とする「心」を持たせるというものです。
      くわしくは、チューリングテスト認知パターンを参考にしていただければと思います。
      簡単に説明すると、人間と同じように善悪の概念を理解させれば、目的遂行のためとはいえ、他人に迷惑をかけるのは悪、するべきでないということを理解できるので、ホームセンターでチェーンソーを振り回すことはないというものです。

  11. 七志 より:

    疑問に思うことが多かったので質問させてもらいます。
    まず最初の質問に対する答えでポイントを付けるとありますが、それはR2-D1の二の舞ではないのでしょうか、考慮するべきポイントは物理的な距離だけではないですし、それをポイント付けするのに無限の時間がかかってしまうのではないですか?
    二つ目は、問題が起きたら起きた時に考えれば良いと答えられていますが、何かが起きてから解決できる問題だと良いですけどそうとは限りませんよね、人間は問題が起きないよ
    うに解決しようとしますが田方さんの考えだとその様にはいかないのではないですか?
    人間でも絶対に解決できるというわけではないですが、最善の策を尽くそうとすることはできます。AIはそれを行おうとするとフレーム問題が起こるのでは?

    • 田方 篤志 田方 篤志 より:

      質問ありがとうございます。

      まず最初の質問に対する答えでポイントを付けるとありますが、それはR2-D1の二の舞ではないのでしょうか、考慮するべきポイントは物理的な距離だけではないですし、それをポイント付けするのに無限の時間がかかってしまうのではないですか?

      ポイント付けする目的は、無限に探索することを回避するためです。
      そのために、距離が1m以内の物に限定してポイント付けしたりします。
      または、物理的な距離以外のポイントの例として、時間を考えたとすれば、直近5分以内の出来事のみにポイント付けするといったことを行います。
      これに対し、たとえば、距離1000m以内の物にポイント付けするとか、過去10年以内のすべての物にポイント付けするとかと拡大すれば、無限に近い時間がかかるかもしれません。
      無限に探索するようにポイント付けの範囲を設定することも可能ですが、そうならないように範囲を設定すれば、無限に探索することはなくなると考えられます。

      人間でも絶対に解決できるというわけではないですが、最善の策を尽くそうとすることはできます。AIはそれを行おうとするとフレーム問題が起こるのでは?

      AIは、最善を尽くそうとすると、無限探索に入ってフレーム問題が起こるのでは?という質問ですね。
      無限探索を回避するのは簡単です。
      たとえば10分以上探索しても答がでない場合は探索を止めるようにするとかにすればいいだけです。
      こうすれば、10分後、「最善を尽くしましたが、解決できませんでした」と答えることができ、フレーム問題は起こりません。
      これだと、人間と同じではないでしょうか?

  12. dominor より:

    一貫してロボットがどうすべきかという点を「田方さんが」判断していますよね。それってフレーム問題から抜け出せていませんよ。無視すればいい、という判断をロボット自身ができないというのがフレーム問題の根幹であり、「心が大事」というのも人間の判断ですよね。無視出来る範囲まで人間視点でフレームを広げてるだけでしかなく、フレーム問題が消えてなくなってるわけじゃないんですよ。ただ単に田方さんがフレームを視界の外に押しやっただけ。「心が大事」というなら、ロボットが己の「怖い」という「心」を優先して爆弾を処理しなかったらそれはロボットとして正しいんでしょうか。ロボットの心を大事にすべきかロボットとしての使命を大事にすべきかはロボットはどうやって判断するんでしょうか。人間なら、保身に走っても己の身を犠牲にしても納得されるでしょう。でも、ロボットには「正しさ」が求められる。無限に湧き出てくる問いをどう無視してどう順位付けするか、そういう根本を問うているのがフレーム問題だということです。たぶん、田方さん以外の閲覧している方はお分かりかと思いますが。

    • 田方 篤志 田方 篤志 より:

      質問、ありがとうございます。

      たぶん、田方さん以外の閲覧している方はお分かりかと思いますが。

      やはり、そうでしたか!
      実は、もしかして、僕だけが、「フレーム問題」を正しく理解できてないのでは?と思っていましたので、どこが間違っていたのか、ぜひ、教えてください。
      今回のコメントを読んだだけでは、まだ、わからないので、ぜひ、議論させてください。

      まずは、この点です。

      「心が大事」というなら、ロボットが己の「怖い」という「心」を優先して爆弾を処理しなかったらそれはロボットとして正しいんでしょうか。ロボットの心を大事にすべきかロボットとしての使命を大事にすべきかはロボットはどうやって判断するんでしょうか。人間なら、保身に走っても己の身を犠牲にしても納得されるでしょう。でも、ロボットには「正しさ」が求められる。

      ここから、人間は、「正しさ」より保身に走っても納得できるが、ロボットの場合、「正しさ」が求められると解釈できます。
      つまり、dominorさんは、人間とロボットでは、求められる行動、目的が異なると解釈しているのでしょうか?

      僕の理解では、「フレーム問題」の大枠は、「人間と同じ知能を持つロボットを作ろうと思っても、フレーム問題があるためできない」ということだと解釈していました。
      つまり、「フレーム問題」の前提とする「人間と同じ知能を持つロボットを作る」の部分が、僕が間違っていたということでしょうか?
      もしかして、「フレーム問題」の解釈が、僕とdominorさんとでは異なるのではないでしょうか?

      この点について教えてください。

    • dominor より:

      うーん、なんだか根本的な部分ですね。田方さんが作りたいのはロボットではなく人工生命なのではないでしょうか。
      おそらく、人工生命を生み出せれば田方さんの仰る通りフレーム問題は解決するでしょうね。
      そんなことができれば、の話ですが。

      難しいようであれば、一から生み出す方向ではなく、
      人をロボットに変えたと仮定してみた方がわかりやすいかもしれません。
      その人――彼には一切の主を認めず、誰かに従う存在として行動してもらいます。
      その前提で、彼を死なせないことを考えてみてください。
      何も命じなければ、彼は呼吸すらしません。
      まず一分に何回呼吸すべきか、食事はいつどのようなタイミングで行なえばいいのか、排せつは――など、
      指示することはそれこそ100、1000とあるでしょう
      それらをいったん「己の生命を維持しろ」という命令にパッケージしたとします。
      人間だから実行してもらうのは簡単ですね。
      しかし、「生命を維持する」だけでは社会では生きていけません。先にコメントがあった通りです。
      「法に順じて」「他者に迷惑をかけない」とあわせて命じましょうか。
      しかし、「他者に迷惑をかけない」と「生命を維持する」が拮抗した場合、彼はどうすべきでしょうか。
      自転車が猛スピードで迫ってきたが、避けた場合に背後いる誰かが轢かれてしまう、といったシーンです。
      どちらをどれぐらい優先すべきか、彼はロボットなので判断できませんね。
      避けたら「生命を維持しろ」という命令を実行する視点では不適切です。
      よけなければ、「他社に迷惑をかけない」という命令を実行する視点では不適切でしょう。
      こういった矛盾を解決するために、「優先リスト」を用意してあげたほうがいいかもしれませんね。
      さらに言えば、「内容は自分で考えろ」と命じることできっと自分で作ってくれます。元は人間ですから。
      「自分で生命を維持する」「法に準じる」「他者に迷惑をかけない」「それらを自分で判断して適切に優先する」
      おおよそ、理想的な行動です。

      …気づかれたかもしれませんが、これはもはやロボットではなくただの善良な人間ですね。
      「自分で考え行動する」となるとロボットではいられなくなるんです。
      田方さんの主張は「ロボットを使うぐらいなら人間を雇った方がいい」と同義なのです。

      こういう哲学的な方向でもフレーム問題は解決していませんし、
      「心」をエミュレートする、「意味」を理解するという量的なアプローチにおいても
      フレーム問題は非常に大きな壁となっています。

      意味が理解できないと言う量の問題に関して言えば、
      「太郎は花子が好き」と「花子は太郎が好き」の違いをロボットは理解できないということです。
      人間が教えてあげないと。
      もし田方さんがiPhoneユーザーなら、Siriに「近くにある中華料理屋を教えて」と聞いた後に
      「近くにある中華料理屋以外の店を教えて」と聞いてみてください。
      きっと同じ答えが返ってくるはずです。「以外」の意味が今のSiriには理解できないからです。

      「心」の演算が何故できないかは様々な人が語っていらっしゃるので
      僕のような浅学な人間からは控えさせていただきますけど、
      「フレーム問題は解決済み」なのではなく
      「フレーム問題があまりに巨大な壁なので田方さんの視界の中に入っていない」ということです。
      理解が難しいかもしれません。
      でも、田方さんが理解できないことをどうしてロボットが理解できましょう、と言えば少しは何かが伝わるでしょうか。
      人間同士が話してさえ、通じないのです。
      まっさらなロボットに「意味」を順位付けさせることの難しさが察せられますね。

      世の中で活躍しているロボットは「何をしないのか」を適切に設定されています。
      例えば、「〇〇以外のものを教えろ」と聞かれても「以外」を無視するように。
      今の僕らにできるのは「フレーム問題は解決済み」と思い込んでロボットに「心」を覚え込ませることではなく
      「フレーム問題とは向き合うべきではない」と割り切って
      ロボットにはロボットに向いた作業をさせることなのかなと思っています。

      いかがでしょうか。

    • 田方 篤志 田方 篤志 より:

      dominorさん、丁寧な回答、ありがとうございます。
      回答を全て読ませていただきましたが、肝心の、前回の僕の質問に対する直接の回答はなかったようです。
      ただ、文章から、おおよその検討はつきますので、こちらで、前回の質問のまとめをしたいと思います。

      dominorさんの言う「フレーム問題」とは、どうやら、AIが直面するであろうあらゆる問題を指しているように思えます。
      自然言語処理の意味解析の問題から、いわゆる「トロッコ問題」のような正解の存在しない問題まで、かなり幅広く含んでいるようです。

      それに対して僕の指す「フレーム問題」とは、AIロボットが現実世界で推論するとき、無限探索の問題に直面してフリーズするというジョン・マッカーシーが提唱した問題のみを指しています。

      僕の記事の「フレーム問題は解決済み」とは、このジョン・マッカーシーが提唱した「フレーム問題」の解決を指しますが、僕の記事を読んだdominorさんは、「トロッコ問題」を含む、AIのあらゆる問題が既に解決したと思ったわけですね。

      以上の理解で間違いないでしょうか?

  13. しお より:

    はじめまして。

    フレーム問題は、AIの情報処理能力が限りなく無限である(無限でなくてはならない)というおかしな前提から生まれたものではないかと思います。田方さんがおっしゃるように、探索問題(どこまで探索して打ち切るか)として考えるとそれほど重大な問題ではないように思えます。人間はコンピューターに比べると処理能力・記憶容量で劣り、ほんのちょっと探索して打ち切るので思い込みの結論を出したり、偏った人格(個性ともいう?)に育ってしまいがちですが、問題解決に不要なものを意識から自然とフィルターアウトすることのできる、素晴らしい能力を持っているのだとも言えそうです。

    AIは、AlphaGo等の影響もあって超越した知性のようなイメージを持たれがちですが、ゲームのようなごく情報量の少ない箱庭から抜け出して活動するには、AIも人間のようなある程度の「愚かさ」を受け入れなくてはならないのではないかと思います。

    • 田方 篤志 田方 篤志 より:

      コメント、ありがとうございます。
      おっしゃるとおり、検出したデータ全てを計算していては、無限の処理能力があってもフレーム問題が起こってしまいますね。
      AIにも、関係なさそうなものを適当に無視する大雑把な心が必要と思われます。
      そうなってくると、AIにも性格が出てきて、より、人間っぽくなってくるでしょうね。

  14. 名無し より:

    かじった程度の知識なのですが、5番さんの意見の返信で

    >>これは、前もって知識として持っていればいいでしょう。
      物を移動させるには、その物を持って運び出すといったような知識です。

    と返信されてますが、その物を見分ける、かつその物の状態を見分けること、そのものがどのような性質を持つかなどを定義するのができないという話なのではないのでしょうか?

    • 田方 篤志 田方 篤志 より:

      質問、ありがとうございます。

      その物を見分ける、かつその物の状態を見分けること、そのものがどのような性質を持つかなどを定義するのができないという話なのではないのでしょうか?

      これは、それほど難しい問題ではないと思いますが。
      実際、工場などで、ベルトコンベヤーで流れる物から異物除去するシステムなのでは、カメラからの映像を画像処理して、異物を検知すれば、ロボットアームで除去します。
      これは、色や形などからその物や状態を見分けていることになります。
      色や形で定義しているわけです。

  15. calsite より:

    フレーム問題は現実にロボットが存在する状況を仮定していますが、例え二人零和有限確定完全情報ゲーム(たとえば囲碁)のようにパターンが膨大過ぎるものは事前にすべての可能性について演算することが現実的ではありません。
    Googleの囲碁AI「アルファ碁」が人間に勝利した事実を踏まえると、少なくとも特化型AIに関してはフレーム問題を回避する方法(解決する方法というと語弊がある)は現時点で実用化されていると言えると思います。

    そもそも現在主流のディープラーニングは過去のデータが多いほど精度の高い(あるいは気の利いた)判断ができるようにするものであるので、学習した過去データにおいて存在しない極めて可能性の低い現象(壁の色が突然変わるとか隕石が降ってくるとか)は考慮できません。

    フレーム問題は解決したわけではなく、「作ろうとしているもの」によってはぶり返す問題であると思います。既にコメントで出ていますが「行動前にあらゆる可能性を考慮して人間をはるかに超越した預言者めいた判断力をもって目的を確実に達成する」AIを作ろうと思った場合はフレーム問題は以前として立ちはだかります。

    いきなり一足飛びにそんなAIを作るのは無理なので、フレーム問題がそもそも起きない手法でもっと低レベルなAIを研究していこうというのが現在の主流ではないでしょうか。この趣旨でも「庭の木を1本切って」をこなすことは、学習が十分行われていれば可能に思われます。

    「庭の」→この命令者が「誰の庭」を日本語で省略した場合、「自分の」と思われる。まだそれを学習していなければ確認コストが安いので「聞き返して確認する」
    「木を1本」→「どの木」か学習したデータから判明しなければ「確認する」。枯れた木などがあればそれだと判断する。
    「切る」→命令者の所有物で木を切れそうな道具が無いか検索。ノコギリを発見したが通常材木を加工する道具であって樹木を切り倒す道具ではないので、ネットから検索して道具の購入を検討。チェーンソーは早く楽に切れるが値段が高い。斧はチェーンソーよりはかなり安いがそれなりに高い。伐採/間伐のサイトでノコギリを使用した樹木の切り方を発見。命令者はお金をあまり持っていないことを学習していればノコギリで切る。お金があるかわからなければ斧を注文するか「確認する」。

    学習させた過去データ次第ですが上手く遂行できることが不自然ではないと思います。もちろんそういった命令をこなすロボットのAIは学習データとして日常的にあり得るものを学習させるでしょうから「CIAのサーバーからすべての情報を抜き出してきて」などと命令すれば上手くいかないか、できませんと答えるでしょう。

    • 田方 篤志 田方 篤志 より:

      コメント、ありがとうございます。
      まさに、おっしゃる通りだと思います。
      フレーム問題が提示された1960年代と異なり、現代では、人間に近い思考のロボットも十分可能になってきています。
      フレーム問題にいつまでもこだわるより、人間と同じような思考は、どこまで可能かといった視点に向かうべきでしょうね。

  16. 田淵 より:

    初めまして。

    ……なんというか、申し訳なく思うのですが、
    「どうでしょう?
    なんの問題もありませんよね。」
    とおっしゃられているのに、
    「……さぁ?
    え、どうなんでしょう?」
    とつい答えてしまうほど理解が及んでいません……。

    そんな状態で質問するのもおこがましいかと思われますが、
    質問させて頂きます。

    ブログ内の文章に
    「人間が普通に考えるように、」
    と記載されているのですが、これに対し、
    “そもそも人間がどう考えているから問題が起こっていないのか?
    人によって違いがある『普通』の定義が曖昧なように感じるが、
    プログラミングする時は曖昧なままなのか? 厳格に決める必要があるのか?”
    という疑問が浮かびました。

    ……なんだか、この疑問もそれこそ『フレーム外』へ追いやって良さそうな気がしてきましたが、
    答えて頂きたい点は、上記””内の疑問がAIを作製する際に考えるに値する問題か、という点です。

    一瞥のほど、よろしくお願いします。

    • 田方 篤志 田方 篤志 より:

      田淵様

      質問、ありがとうございます。

      「人間が普通に考えるように、」
      と記載されているのですが、これに対し、
      “そもそも人間がどう考えているから問題が起こっていないのか?
      人によって違いがある『普通』の定義が曖昧なように感じるが、
      プログラミングする時は曖昧なままなのか? 厳格に決める必要があるのか?”
      という疑問が浮かびました。

      人間が、普段、どんなふうに考えているかは厳密にはわかりませんし、人によって考え方が違うので、「人間が普通に考えるように」といわれても、プログラムの書きようがないということですよね。
      ここで僕が言いたかったことは、そのような厳密な話でなく、もっと、大雑把な話です。

      フレーム問題が発生するのは、「爆弾を動かそうとすると、天井が落ちてこないか」とか、「爆弾に近づくと壁の色が変わらないか」とか、副次的に発生する事項を無限に考える場合です。
      一方、人間が爆弾を動かそうとするとき、天井が落ちないかとか、壁の色が変わらないかとか、そんなこと、普通、考えないですよね。
      考えるとすれば、衝撃を与えれば爆発するかもしれないから、そぉーっと動かそうとか、どの方向に動かしたら、バッテリの移動の邪魔にならないかといったことですよね。
      僕が言いたかった「普通に考える」とは、この程度の大雑把な意味です。

      いろんな考えの人がいるとは思いますが、物を動かすとき、壁の色が変わらないかと心配する人はいないでしょう。
      そんな、普通、人が考えもしないことをロボットに考えさせるプログラムはどう考えても不自然です。
      人と同じようにロボットに考えさせるプログラムが自然ですよね。
      「人間が普通に考えるように」とは、こういうことです。

  17. 田淵 より:

    疑問に返答して頂き、ありがとうございます。

    確かに、天井が落ちないかとか、壁の色が変わらないかとかって、考えないでしょうね。

    ……考えないのは『考える必要性がない』と判断してるから、ですかね。
    ……判断できるのは『判断材料として、過去の経験や知識を利用している』からで、
    その経験や知識から、”爆弾を動かす”ことと”天井”や”壁の色”との因果関係が結びつかないから
    ……でしょうか。

    発想が自由な分R1-D1やR2-D1は考えすぎてしまっていたのを、
    あらかじめ考える余地をなくすことで対処したようで、
    人が持つとされる”ひらめき”を奪ってできたものに関して、
    なんだかR1に逆戻りしたような気がしたのですが……。

    いえ、これは戯言ですね。
    恐らく田方さんの考えた通りにプログラムを組めば、
    問題は解決するのでしょう。

    長文、失礼いたしました。

  18. sai より:

    はじめまして。

    ロボットがバッテリーの上に置かれた爆弾をどうするかの件についての質問です。

    もし、人間である私がバッテリーの上に置かれた爆弾を見た場合、
    「この爆弾を持ち上げたり傾けたりしたら爆発するかも。。。」と、
    今までに見た映画などの爆弾を思い浮かべて「爆弾は安易に触るべきではない」と考えるかと思います。

    仮に、人間の爆弾処理班が処理すると考えたとき、今までの爆弾処理の経験から、まずは安易に動かしたりせずに爆弾の内部を開けるなりスキャンするなりして爆発される仕組みを入念に調べ、適切な処理で爆発を回避した後に、ようやくバッテリーを持ち出すかと思います。

    爆弾と一口に言っても様々な仕組みや回路の物があり、厳密に言えば、爆弾が爆発される回路の内部構造は、回路の外見も含めると「無限にある」と言ってもよいかと思います。

    爆発する仕組みの例を上げるとすればこんな感じです。
    ・高さを変えると爆発
    ・傾けると爆発
    ・音をたてると爆発
    ・つかむと爆発
    ・位置をずらすと爆発
    ・上記の仕組みを複数仕込む
    ・経過時間によって爆発の仕組みが変わる
    など

    そのような「爆発に至る可能性が無限にある」状態の爆弾を、AIロボットはどのように判断して、爆発を回避してバッテリーを持ってくることができるのでしょうか?

    爆弾の仕組みにおいては「普通の仕組み」などというものは存在しないような気がします。

    あと、爆弾の形もさまざまなものが作れると思うので、
    それが「爆弾である」「爆弾ではない」という判断もかなり難しいような気がします。

    例えば…
    ・くまのぬいぐるみ爆弾
    ・バッテリーと同じ形の爆弾
    ・バッテリーとバッテリーの間に爆弾があり、爆弾はどちらかのバッテリーと一体化している
    など

    解決しようとする者が人間やAIロボットにかかわらず、何かの問題が発生した時、やはり解決方法は無限にあるように思えるのですが、いかがでしょうか?

    • 田方 篤志 田方 篤志 より:

      sai様
      質問ありがとうございます。

      フレーム問題の提唱者が言いたかったことは、「コンピュータプログラムでいくら難しい迷路が解けたとしても、現実世界にロボットを投入した場合、無限探索の課題に直面し、ロボットは一歩も動けなくなる」ということです。
      つまり、「コンピュータが得意な問題をコンピュータ内でいくら解けても、現実世界に出れば、人間が簡単に解ける問題も解けないよ」ということが言いたかったわけです。
      逆に言えば、フレーム問題が対象としている問題は、人間なら簡単に解ける問題で、そもそも人間にも簡単に解けない問題がロボットにも解けないという話は、フレーム問題とは別の話と考えます。

      最近、シンギュラリティという言葉がもてはやされています。
      シンギュラリティとは、技術的特異点のことで、人工知能が人間の知能に到達する点を指します。
      人間の知能は、脳の大きさなどから物理的に限界が存在します。しかし、人工知能には物理的な限界はなく、コンピュータをつなげれば無限に増強できます。
      ただし、人工知能にできることが計算問題だけなら、コンピュータを増強しても、複雑な計算問題を速く解けるようになるだけです。
      ところが、一旦、人工知能が、人間ができることを全てできるようになると、あとはコンピュータを増強していけば、人間をはるかに超えた人工知能が誕生するのです。
      IQが1000にも10000にもなり得るのです。
      人工知能が人間の知能に到達する点、これがシンギュラリティ(技術的特異点)です。

      フレーム問題に話を戻します。
      フレーム問題は、人間が簡単に解ける問題が解けないことを指摘したもので、人間にも解けない問題がロボットに解けないことは、問題にするべきでないと考えます。
      なぜなら、人間に解けないどんな問題でもロボットに解けるようになるという話は、シンギュラリティに関わる話で、分けて考えるべき話だからです。
      フレーム問題を語るとき、人間には解けるのに、コンピュータでは解けないという場合に絞るべきと個人的に考えています。

      saiさんの指摘する「くまのぬいぐるみ爆弾」を見抜く方法など、どれも人間にも解決困難な問題ですので、フレーム問題とは分けて考えるべきでしょう。

  19. ぱんの耳 より:

    私はAIロボットやプログラムについてはまったくの素人です。

    最近NHKでAIを特集した番組を見ました。
    そこで「フレーム問題」について語っており、この問題を解決する必要があるということを言っていました。

    そこで素朴な疑問ですが、
    田方さんの中で解決されているはずの「フレーム問題」が、なぜ世間(全世界?)では今もなお大きな難題として取り上げているのでしょうか?

    フレーム問題が解決済みなのであれば、田方さん自身がフレーム問題が解決されたAIロボットやプログラムを作るか、そのような論文を世間に発表すれば、全世界の研究者は「フレーム問題は解決できた!これでAIの未来は明るいね!」ってなるように思えるし、それが全世界の研究者を納得させる一番手っ取り早い方法のように思えます。

    それぐらい「フレーム問題が解決済み」というのは、全世界の研究者に衝撃を与える発見のように思えます。(NHKの番組を見る限りでは)

    「フレーム問題を解決済み」のAIロボットをはやく見てみたいので、ぜひそのようなAIロボットを作って発表して、フレーム問題が解決済みであることを全世界の研究者に教えてあげてください。

    そうしなければ、いつまで経っても「フレーム問題」が大きな難題として研究者の前に立ちはだかり、AIロボットの研究がちっとも前に進まないといったことが起こるのではないかと思います。

    「フレーム問題を解決済み」のAIロボットやプログラムや論文を世間に発表する予定はありますか?

    • 田方 篤志 田方 篤志 より:

      ぱんの耳様
      コメント、ありがとうございます。

      フレーム問題が解決済みなのであれば、田方さん自身がフレーム問題が解決されたAIロボットやプログラムを作るか、そのような論文を世間に発表すれば、全世界の研究者は「フレーム問題は解決できた!これでAIの未来は明るいね!」ってなるように思えるし、それが全世界の研究者を納得させる一番手っ取り早い方法のように思えます。

      はい、全くその通りです。
      このブログを立ち上げた目的も、そこにあります。
      「フレーム問題って、どこがそんなに問題なの?」って、ずっと思っていました。
      僕が、どこか勘違いしているのかもしれない。もし、そうなら、ブログで公開すれば、誰かが、その間違いを訂正してくれるだろうと思って。
      ブログを公開して、グーグル検索でも3位以内にずっと入っているおかげで、ずいぶん多くの人に見てもらって、コメントもかなりもらいましたが、未だに、納得する反論はありません。
      それなのに、未だに、フレーム問題が人工知能の最大の難問だと言われ続けています。
      本当に不思議です。

      論文は書く予定はありませんが、機会があれば、別の形でも公開していこうと思っています。
      ロボマインド・プロジェクトの目的はフレーム問題を解決するロボットの開発ではないので、そのようなロボットは作っていませんが、AIシステムは開発中なので、開発内容は随時公開して行く予定です。

  20. A より:

    >>まず、現在の状況は、バッテリの上に爆弾が載っています。

    >>もし、爆弾がバッテリの上に載っていなければ、
    >>バッテリを移動させればバッテリだけを洞窟の外に持って行くことができます。

    >>つまり、バッテリの上に爆弾が載っている状況から
    >>載っていない状況にすればいいのです。
    >>バッテリの上に爆弾が載っている状況から
    >>載っていない状況にするには、バッテリの上の爆弾を
    >>バッテリの外に移動させればいいわけです。

    これを、その状況を見た瞬間に判断できるのが人間。
    あらかじめその状況を想定したプログラムを組まないと(現在の技術では)判断できないのがAI。

    人間ならば、
    仮に爆弾が接着剤でくっついていたら
    接地部分を切り離せばいいと判断できます。
    ガムテームでぐるぐる巻きにされていたら
    テープをはがせばいいと判断できます。

    田方さんの作ったロボットでは、
    残念ながらそれができません。

    接着止めされていた場合に、画像認識でそのことがわかりますか?
    それを想定してシミュレーションする機能は備わってますか?
    爆弾を持ち上げたときにバッテリーも一緒に持ち上がった場合の
    考慮は足りていますか?
    爆弾が二つだったら?横にくっついていたら?爆弾が重かったら?

    いずれも人間ならば状況を理解し、
    限定した手段から見事に解決策を見出すことができます。
    AIにはそれが困難です。

    これがフレーム問題です。

    • 田方 篤志 田方 篤志 より:

      Aさん、コメントありがとうございます。

      これを、その状況を見た瞬間に判断できるのが人間。
      あらかじめその状況を想定したプログラムを組まないと(現在の技術では)判断できないのがAI。

      人間が、その状況を見た瞬間に判断できるのは、その状況でどのように動作すればいいのかの知識をもっているからですよね。
      その知識は、人間は学習によって得られますよね。
      AIでも、状況に応じてどのように動作するか学習すればいいだけではないですか?

      ガムテープでぐるぐる巻きにされている場合の対処の仕方をAIが学習すれば対処できるようになるだけです。
      人間がガムテープの対処方を教えてもらって対処できるようになることと、ロボットが学習によって対処できるようになることと同じだと思えますがいかがでしょう?
      人間と同じ知識とアクチュエーターを備えていれば、人間が状況を理解し、限定した手段から解決策を見出すことと同じことがロボットにもできると思いますがいかがでしょう?

  21. A より:

    田方さん

    >>ガムテープでぐるぐる巻きにされている場合の対処の仕方をAIが学習すれば
    >>対処できるようになるだけです。
    >>人間がガムテープの対処方を教えてもらって対処できるようになることと、
    >>ロボットが学習によって対処できるようになることと同じだと思えますがいかがでしょう?

    違います。

    人間は、爆弾とバッテリーがガムテープでくっついている状況に初めて出くわしても、
    ガムテープがものをくっつけるという性質、
    ある程度力を加えれば剥がすことができるという経験から
    目的達成のためにはガムテープを剥がせばいいと判断することができます。

    一方、田方さんのおっしゃるロボットは、
    爆弾とバッテリーがガムテープでぐるぐる巻きにされている状況を設定してあげて、
    その場合にはガムテープを剥がすこと、とフレームを決めて学習させてあげなければ、
    爆弾とバッテリーがガムテープでくっついている状況に出くわしたときに
    目的達成のためにはガムテープを剥がせばいいと判断することができません。
    人間はそんな状況を経験しなくてもガムテープを剥がせばいいと判断できます。

    接着止めされている場合やその他、別の状況においても同様です。

    >>人間と同じ知識とアクチュエーターを備えていれば、
    >>人間が状況を理解し、限定した手段から解決策を見出すことと同じことが
    >>ロボットにもできると思いますがいかがでしょう?

    はい。そのとおりかと思います。
    しかしながら、田方さんが本記事で示されている目的達成のステップを見れば、
    そのロボットに人間と同じ知識が備わっていないことは明らかかと存じます。

    実際、田方さんが本記事で示された、フレーム問題を回避できるはずのロボットは、
    ガムテープを剥がすことができず爆発、N号機を改めてつくることになったわけです。

    目的を仮に「爆弾もバッテリーと一緒にもってくる」に変更した場合を想像すれば、
    人間とロボットの違いがよりわかりやすくなると思います。
    人間は目的が変わっても、その目的に応じて再学習なしに適切な手段を選択できます。
    ロボットは、フレームを決めてまた学習しなおしです。

    • 田方 篤志 田方 篤志 より:

      Aさん
      お返事、ありがとうございます。

      人間は、爆弾とバッテリーがガムテープでくっついている状況に初めて出くわしても、
      ガムテープがものをくっつけるという性質、
      ある程度力を加えれば剥がすことができるという経験から
      目的達成のためにはガムテープを剥がせばいいと判断することができます。

      これと同じことをロボットにさせれば問題ないのではないでしょうか?
      「ガムテープはものをくっつける性質がある」、「ガムテープは、ある程度力を加えれば剥がすことができる」という知識をロボットが持っていたとします。
      「バッテリのみ運び出す」という目的をロボットに与えたとします。
      まず、画像認識で「バッテリと爆弾がガムテープでくっついている」という状況を認識します。
      次に、目的達成のためには、バッテリと爆弾を離さないといけないと判断します。
      バッテリと爆弾を離すには、ガムテープを剥がさないといけないと判断できます。
      「ガムテープは、ある程度の力を加えれば剥がすことができる」という知識から、力をを加えてガムテープを剥がします。
      ガムテープが剥がれると、バッテリのみ運び出すという目的が達成できます。
      いかがでしょう?
      何も問題ないのではないでしょうか?

      目的を仮に「爆弾もバッテリーと一緒にもってくる」に変更した場合を想像すれば、
      人間とロボットの違いがよりわかりやすくなると思います。
      人間は目的が変わっても、その目的に応じて再学習なしに適切な手段を選択できます。
      ロボットは、フレームを決めてまた学習しなおしです。

      なぜ、わざとややこしいことをするのかちょっと理解できません。
      元記事を参考に説明します。

      画像認識から、バッテリの上に爆弾が乗っていると認識します。
      次に、3Dシミュレーションで、バッテリを洞窟の外に移動させると、その上に載っている爆弾も移動することが確認できます。
      目的は、「爆弾もバッテリと一緒に持ってくる」ということですので、シミュレーション通りに実行すれば目的が達成されることがわかります。
      そこで、シミュレーションどおりバッテリを洞窟の外に移動させます。
      これで目的達成です。
      何が問題なのでしょう?

      その前に、Aさんのおっしゃる「フレームを決めて学習しなおし」の意味がよく分かりません。
      そもそも「フレーム問題」とはフレームが決めれないことが問題なのですが、「フレームを決めて」とは、どうやって何を決めるのでしょうか?

      また、「学習」とは具体的にどういうことでしょうか?
      機械学習を想定しているのでしょうか?
      機械学習であれば、大量の入力データと教師データから学習すると思うのですが、この場合、入力データは何で、教師データは何でしょうか?
      バッテリが洞窟の中にある初期状態と、バッテリが洞窟の外にある目的状態があるとすれば、初期状態が入力データで、目的状態が教師データになるのでしょうか?
      もしそういうことなら、その二つのデータから機械学習で何をどう学習するのでしょう?
      Aさんの想定する「フレーム」「学習」について、詳しく教えていただけないでしょうか。
      僕がなにか勘違いしているようならご指摘ください。

  22. A より:

    田方さん

    ひょっとするとなんですが、
    無限探索に陥ることがフレーム問題だと思っていませんか?
    無限に探索しないように設計すればフレーム問題が解決だと思っていませんか?

    だとするとそれは大きな誤解です。

    フレーム問題というのは、
    目的に応じて必要な情報や知識を取り出すことが難しいという問題です。

    人間なら目的達成に関係のあることとないことを無意識に判断していますが、
    その判断を機械的におこなうにはどうすればよいかという問題なんです。

    フレーム問題の例として取り上げられているロボットの話は、
    その難しさをフレームという概念を用いて説明するための、たとえ話にすぎません。

    フレーム問題の本質は、
    無数に存在する可能性の中から目的達成に必要な情報だけを取り出す判断基準を
    ロボット自らに決定させることであって、
    人間がその判断基準をロボットに設定してあげることでもなければ、
    ロボットにバッテリーを運ばせることでもないのです。

    フレーム問題の例にしても、
    ガムテープの例にしても、
    目的を変更した場合の例にしても、
    田方さんはその意図を理解せず、
    ただロボットにバッテリーを運ばせるために様々な制約を設け、
    無限探索を回避することばかり考えているように見受けられますが、
    それは田方さんが定めた目的達成のための状況と条件という
    フレームの中でしか動くことのできないロボットをつくっているに過ぎず、
    まさしくそれはトイプロブレムしか解けない探索ロボットと同じなんです。

    繰り返しになりますが、
    無限探索を回避するために人間が制約(フレーム)を設定することは、
    フレーム問題の解決にはなりません。
    そのフレームをロボット自らが設定できるようになることが、
    フレーム問題の解決なんです。

    以上を踏まえて、ぜひもう一度わたしのコメントや他の方々のコメントを振り返ってみてください。
    話がかみ合わなかった部分や、意味のわからなかった部分、質問の意図が理解できるかと思います。
    それと合わせて、本記事で提案されている選択肢に重要度をつける案も
    フレーム問題の解決策としてナンセンスであることを確認してください。

    よろしくお願いします。

    • 田方 篤志 田方 篤志 より:

      Aさん
      回答、ありがとうございます。

      ひょっとするとなんですが、
      無限探索に陥ることがフレーム問題だと思っていませんか?
      無限に探索しないように設計すればフレーム問題が解決だと思っていませんか?
      だとするとそれは大きな誤解です。

      いいえ、そんなことは全く思っていませんよ。
      Aさんの今回の回答は、僕がそのように思っていると勘違いを前提としている内容なので、今回の回答の中身は無視させていただきます。

      さて、僕の言う「フレーム問題」とは、記事にも書いている通り、

      現実世界の問題を解決するには、無限の可能性があり、すべて検討するわけにはいかないので、枠(フレーム)を当てはめて、関係のない物事を除外する必要がある。
      ところが、どこがフレームの内(関係のあること)で、どこがフレームの外(関係のないこと)かを判断することができないので、結局、いつまでたっても問題が解決しないとのことのようです。

      という意味で使っています。
      Wikipediaの「フレーム問題」を見ても、そのように書いていると思います。

      「フレーム問題」で重要なのは、「フレーム」です。
      「フレーム」の内側にあるのが、目的遂行に必要な情報で、外側にあるのが、不必要な情報です。
      なので、「フレーム」さえ定義できれば、目的遂行に必要な情報のみ探索すればいいので、無限探索に陥ることなく、解を探索できるのです。
      ところが、「フレーム」を定義できなければ、目的遂行に不必要な情報まで探索しなければならず、無限に解を探索してしまいます。
      つまり、「フレーム」を定義できるかできないかが重要となってくるのです。

      Aさんの定義する「フレーム問題」は、

      フレーム問題というのは、
      目的に応じて必要な情報や知識を取り出すことが難しいという問題です。

      とのことのようですが、肝心の「フレーム」に言及していないので、これでは「フレーム問題」の説明になっていません。

      そこで根本的な点に立ち返ってAさんに以下の2点を質問させてください。
      1.「洞窟の中にあるバッテリを洞窟の外に移動する」という問題の場合、Aさんは、人間は「フレーム」を見極めることができるとお考えでしょうか?
      2.もし見極めれると考えているのでしたら、どのようにしてフレームを見極めるのでしょうか?
      つまり、バッテリを動かすのに、壁の色が変わるかどうかは気にしなくてもいいということを、Aさんはどうやって判断するのでしょうか?
      それとも、Aさんは、バッテリを動かすのに壁の色や天井の色を調べずにはいられないのでしょうか?

      ご回答のほど、よろしくお願いいたします。

  23. A より:

    田方さん

    >>1.「洞窟の中にあるバッテリを洞窟の外に移動する」という問題の場合、
    >>Aさんは、人間は「フレーム」を見極めることができるとお考えでしょうか?

    はい。
    ただ、厳密にいうと
    「フレームを見極めているような振る舞いにみえる」という考えです。

    >>2.もし見極めれると考えているのでしたら、
    >>どのようにしてフレームを見極めるのでしょうか?
    >>つまり、バッテリを動かすのに、壁の色が変わるかどうかは
    >>気にしなくてもいいということを、Aさんはどうやって判断するのでしょうか?
    >>それとも、Aさんは、バッテリを動かすのに壁の色や天井の色を
    >>調べずにはいられないのでしょうか?

    どのようにフレームを見極めているかは厳密にはわかりません。
    だからといって、壁の色や天井の色を調べることはしません。
    おそらく目的の内容や常識なんかの知識から
    バッテリを動かすのにそれらは関係ないなと、なんとなく判断します。

    以上2点回答です。
    そのうえで、わたしからも2点。

    1点目。

    >>Aさんの定義する「フレーム問題」は、
    >>  フレーム問題というのは、
    >>  目的に応じて必要な情報や知識を取り出すことが難しいという問題です。
    >>とのことのようですが、肝心の「フレーム」に言及していないので、
    >>これでは「フレーム問題」の説明になっていません。

    上記のようにコメントを引用するのであれば、
    ぜひ中身を無視せず全部コメントを読んでください。
    フレームに言及して説明しているので。

    2点目。

    >>「フレーム」さえ定義できれば、目的遂行に必要な情報のみ
    >>探索すればいいので、無限探索に陥ることなく、解を探索できるのです。
    >>ところが、「フレーム」を定義できなければ、
    >>目的遂行に不必要な情報まで探索しなければならず、
    >>無限に解を探索してしまいます。

    やはり、無限探索に陥ることがフレーム問題だと勘違いしていませんか?
    何度も申し上げますが、
    無限探索を回避するために人間がフレームを定義してあげることは、
    フレーム問題の解決ではありません。

    Wikipediaだけでなく、
    改めてわたしの前回のコメントを全文読んでいただけると幸いです。

    • 田方 篤志 田方 篤志 より:

      Aさん

      さっそくの回答、ありがとうございます。

      上記のようにコメントを引用するのであれば、
      ぜひ中身を無視せず全部コメントを読んでください。
      フレームに言及して説明しているので。

      Aさんは「目的達成のための状況と条件というフレームの中でしか動くことのできない」と言及しておられます。
      ここから、「目的達成のための状況と条件」がフレームとなると考えられます。

      僕の考える「フレーム問題」は、一貫して説明していますように、「フレーム」を決めれないことが「フレーム問題」と考えています。
      Aさんのいう「フレーム」、つまり「目的達成のための状況と条件」が決めれるのか、決めれないかについては言及しておられません。
      「フレーム問題」を議論する場合、「フレーム」をどうやれば決めれるかを議論しないと、別の問題になってしまいます。
      そこで、「フレーム」の決め方に絞った議論を進めることにします。

      >>1.「洞窟の中にあるバッテリを洞窟の外に移動する」という問題の場合、
      >>Aさんは、人間は「フレーム」を見極めることができるとお考えでしょうか?

      はい。
      ただ、厳密にいうと
      「フレームを見極めているような振る舞いにみえる」という考えです。

      >>2.もし見極めれると考えているのでしたら、
      >>どのようにしてフレームを見極めるのでしょうか?(後略)

      どのようにフレームを見極めているかは厳密にはわかりません。
      だからといって、壁の色や天井の色を調べることはしません。
      おそらく目的の内容や常識なんかの知識から
      バッテリを動かすのにそれらは関係ないなと、なんとなく判断します。

      回答、ありがとうございます。
      僕のブログ記事では「フレームはこうやれば見極めれる」と説明しています。
      それに対してAさんは、それは間違っていると強く反論します。
      そこで、「Aさんは、どうやってフレームを見極めているのですか?」と質問すると「厳密にはわからない」が「何となく判断」している」とのことです。
      僕が問題の解き方を間違っていて、Aさんが正しい解き方を知っているのであれば、それを教えてくれれば済む話なのですが、Aさんはそれは知らないけど、とにかく田方は間違っていると主張します。
      どこかおかしくないですか?

      もう少し議論を進めましょう。
      僕が言いたいのは、「フレーム問題」は、人間が解くのと同じ方法でロボットにも解かせればいいということです。
      その一例が、バッテリ問題で、その場合、人間ならこうやって解いているから、同じようにロボットにも解かせればいいという話です。

      「フレーム問題」で本来言いたいことは、ロボットを現実世界に投入したとしても、人間には簡単に解ける問題でも解けないということです。
      その反論として、僕は、人間と同じようにすればロボットにも解けるということを主張しているのです。

      人間は、どんな問題でも解けるとは思っていません。
      たとえば、バッテリに時限爆弾が取り付けられていたら、人間でも、時限爆弾の解除の仕方を知らなければ時限爆弾を解除できないですよね。
      ロボットであっても時限爆弾の解除方法を知らなければ解除できませんよね。
      そもそも、「フレーム問題」とは、人間に解けない問題をロボットに解かすという話しでもありません。

      それではまとめに入ります。
      バッテリを人間が運び出せるのであれば、その知識をロボットに持たせればロボットでも運び出すことができます。
      バッテリに爆弾がテープで固定されていて、人間が、そのテープを剥がせるのであれば、人間と同じ知識をロボットにもたせればロボットでもテープを剥がせます。

      Aさんは、28日のコメントで、

      いずれも人間ならば状況を理解し、
      限定した手段から見事に解決策を見出すことができます。
      AIにはそれが困難です。

      と主張しておられます。
      この内容を素直に解釈すれば、人間は、新たに学習しなくとも、どんな状況でも解決できると述べているように思えます。
      しかし、時限爆弾が仕掛けられた状況の場合、時限爆弾の解除の仕方を知らなければ、人間でも解決できないのではないでしょうか?
      それとも、Aさんなら「厳密にはわからない」けれども「何となく」時限爆弾を解除できるのでしょうか?

      人間も新たな知識を学習しないと解決できない状況があるなら、Aさんの言う、人間はどんな状況でも「限定した手段から見事に解決策を見出すことができる」との主張は間違っているのではないでしょうか?

      僕の解決策は、人間ができてロボットにできない問題があれば、人間と同じ知識をロボットが学習すれば解決できるというものです。
      解決できない問題が出てくるたびに学習することは、人間も行っていることであり、このことは「フレーム問題」とは関係のない話です。

  24. Bダッシュ より:

    田方さん

    はじめまして。
    Aさんへの回答について一言二言。

    >>僕の解決策は、人間ができてロボットにできない問題があれば、人間と同じ知識をロボットが学習すれば解決できるというものです。

    「人間と同じ知識をロボットが学習すれば」ということですが、
    上記の「人間」というのは、私的には「人間=この世に生きているすべての人間(もちろん過去の人間も入れることが出来ます)」、もしくは「人間=人間の脳」という意味として受け取れます。

    ということは、上記の引用文の意味は、「この世に生きているすべての人間の脳の情報をすべてロボットが学習すれば解決できる。」もしくは「人間の脳を100%解明出来れば解決できる。」と言っているように解釈できます。

    「バッテリーの上に時限爆弾が仕掛けられていた」という設定について。
    その時限爆弾を爆発させないようにする解決方法が、様々なフェイクや仕掛けによって超超超複雑な仕組みであったと仮定します。
    普通の人なら解決は出来ないでしょうが、「この世に生きるすべての人間」がその解決に当たったのであれば、時限爆弾を設置したものが「人間」である以上、解決は「可能」であると言えます。

    そう考えると、「この世に生きるすべての人間」の「脳」を100%解析して、その情報をロボットに学習させれば、田方さんの仰る通り「人間と同じ知識をロボットが学習すれば解決できる」と言えると思います。

    無限にもあるフェイクや仕掛けを施した爆弾を「人間」が作っている以上、「この世に生きるすべての人間」=「人間と同じ知識を学習したロボット」が解決に当たれば、必ず解決することが「可能」です。

    以前「人間に解決できないことはロボットにもできない」と言われていましたが、たとえ時限爆弾にどのような仕掛けが施されていたとしても、その解決方法がたとえ1億通りあったとしても、「人間」が作った仕掛けである以上、「人間(=この世に生きるすべての人間)」で解決に当たれば100%解決出来ます。

    田方さんが提示されている解決方法は、上記のような考え方として受け取ることができますが、問題ございませんでしょうか?

    ただ、このような解決方法って、ちょっと考えれば「不可能」であることは明白です。

    「人間と同じ知識をロボットが学習すれば」と簡単におっしゃいますが、この世に生きる人間たちすべての脳の情報を余すところなく100%解析するという行為自体がそもそも「不可能」である以上、「人間と同じ知識」を学習させること自体が現実的には「不可能」なのではないでしょうか?

    「人間と同じ知識を学習させる」

    言葉で言うのは簡単ですが、この行為自体がとてつもなく難しいために、「フレーム問題」というものが存在しているのではないかと思います。

    ですので、「人間と同じ知識をロボットが学習すれば解決できる」という言い分は、「宇宙の起源や正体を解明できますか?」という問題に対して「宇宙に存在する全ての星を調べれば解明できます。」と言っていることと同じです。

    また、「地球上に住む全ての生物を解明できますか?」と聞かれたときに「地球上のありとあらゆる場所をくまなく調べれば可能です。」と言っているのとも同じです。

    このようなことを一般的には「不可能」と言います。

    そのような「不可能」な解決方法を提示されたところで納得する人は誰もいないでしょうし、「ああ言えばこう言う」といったような議論と言うには程遠い、言葉一つ一つの揚げ足の取り合いにしかならないように思います。

    私は、「この世に生きるすべての人間(人間の脳)」を100%解析することが「不可能」である以上、「人間と同じ知識をロボットが学習する」ことも同様に「不可能」であると考えています。

    よって、「人間ができてロボットにできない問題」は、「人間と同じ知識をロボットが学習する」こと自体が不可能である以上、「人間が解決できる問題」であっても「ロボットには解決できない」という事象は常に存在すると考えています。

    田方さんは、たとえ「人間」そのものの解明が「不可能」であったとしても、それでも「人間と同じ知識をロボットが学習する」ことは「可能」であり、「フレーム問題」が解決できるとお考えでしょうか?

    • 田方 篤志 田方 篤志 より:

      Bダッシュさん
      コメントありがとうございます。

      「人間と同じ知識をロボットが学習すれば」ということですが、
      上記の「人間」というのは、私的には「人間=この世に生きているすべての人間(もちろん過去の人間も入れることが出来ます)」、もしくは「人間=人間の脳」という意味として受け取れます。

      Bダッシュさんがどう受け取るかはBダッシュさんの勝手ですが、少なくとも、僕はそのような意図で述べておりません。

      ということは、上記の引用文の意味は、「この世に生きているすべての人間の脳の情報をすべてロボットが学習すれば解決できる。」もしくは「人間の脳を100%解明出来れば解決できる。」と言っているように解釈できます。

      これもBダッシュさんの解釈であって、僕は、そのようなことは一切言っておりません。

      田方さんが提示されている解決方法は、上記のような考え方として受け取ることができますが、問題ございませんでしょうか?

      そのようなことを僕が述べていると主張するのは全くの間違いです。
      大いに問題があります。

      ただ、このような解決方法って、ちょっと考えれば「不可能」であることは明白です。

      ですから、僕はそんなこと全く主張していないですって。

      そういえば、Aさんも「フレーム問題は無限探索のことだと僕が思い込んでいる」と、勝手に話を作り上げていました。それでも、少なくとも「無限探索」と僕の記事に出現したキーワードを使っていました。
      Bダッシュさんの場合、「脳を100%解析する」とか、僕が微塵も書いてないことを僕が主張したことになっていて、いったい、なぜそんな話になるのか戸惑うばかりです。

      田方さんは、たとえ「人間」そのものの解明が「不可能」であったとしても、それでも「人間と同じ知識をロボットが学習する」ことは「可能」であり、「フレーム問題」が解決できるとお考えでしょうか?

      もはや「フレーム問題」の意味や田方が主張する内容はかけらも存在せず、意味不明な質問が田方の息の根を止めたのであった・・・。

  25. A より:

    田方さん

    わたしが主張しているのは、
    問題の解き方が間違っているという以前に、問題そのものを誤解しているということです。
    そして、問題認識を誤っているために解き方が見当違いであるということです。

    田方さんは、返信コメントの各所で「勘違いがあれば指摘がほしい」とおっしゃっています。
    ですので、わたしが改めてフレーム問題がどのような問題であるか説明してみます。

    もし田方さんがフレーム問題について認識を改めるつもりがなければ、
    以下、読んでいただく必要はありませんし、わたしもこれ以上のコメントを控えます。

    —————————————————————————————–

    フレーム問題というのは、
    人間がなんとなくおこなう、目的に関係のあることとないことの取捨選択の判断を、
    どのように機械的におこなうかという問題です。

    人間はなにかをおこなうとき、当面の目的に関係のないことは無視します。
    そして、関係のありそうなことに限定して思考します。
    つまり、様々な事柄から関係のあることのみをフレームとして切り出している・・・
    と、そう見えるわけです。

    しかしながら、人間自身はこのフレームには無自覚です。
    どのように目的と現実世界の事柄との関係有無を決めているか、
    その方法はわかりません。
    わかることは、
    脳内でおこる化学反応および電気信号のやりとりの結果であるということだけです。

    いかにして知性がタスクに関係のあるフレームを切り出しているか。
    これがフレーム問題の本質です。

    トイプロブレムでは、この問題が起きませんでした。
    なぜなら、解くのに必要な情報しかロボットに与えていないからです。

    しかし現実世界には、問題解決に不要な情報が多分に含まれています。
    また、情報と情報は相互作用し、複雑な関係をもっています。

    単純な探索問題を現実世界に当てはめたとき、
    はじめて物事の関係を考慮する必要性がフレーム問題として浮き彫りになったわけです。

    複雑な関係性をもつ現実世界からどのように問題を切り出して解けばよいのか。
    その難しさを例示しているのがロボットの例となります。

    1号機の失敗から、
    目的に関係のある事項を考慮する必要性に気づきました。

    2号機の失敗から、
    目的に関係のない事項を除外する必要性に気づきました。

    そして3号機の失敗から、
    目的に関係のある事項のみを考慮するために
    目的に関係のない事項を除外しようとするには
    目的に関係のない事項の洗い出しをせざるをえないことがわかりました。

    この3号機の失敗で言いたいことというのは、

    無限に存在する情報を調べ上げるのは不可能だよね、
    有限にするためにどうやってフレームを決めようか。

    ということではなく

    無限に存在する情報を全て調べ上げるのは不可能だから
    必要な情報だけを調べるようにしたいけど、
    必要かどうかを判断しないといけないから、
    無限に存在する情報を全て調べ上げるしかなくね…?人間はどうやってるの…?

    ということです。

    つまり、目的に関係のあることのみを自動で切り出す難しさを主張しているんです。

    田方さんは本記事で以下のように述べています。

    >>壁の色が変わるかどうかなんか、調べる必要がないほど重要度が低いですよね。
    >>つまり、現実世界は迷路と違って、選択肢に重要度をつけることができます。
    >>重要度の大きいものをフレーム内、小さいものをフレーム外とみなすことができるわけです。
    >>このように区別すれば、簡単にフレーム問題を回避することができるのです。

    ここでいっている重要度は、人間が決めていますね?
    人間が重要度を決めるのはフレーム問題の解決ではありません。
    ロボットに重要度を決めさせるのがフレーム問題の解決なのです。

    はっきり申し上げると、バッテリーを運びだすこと自体はどうでもいいんです。
    洞窟に入り、バッテリーと爆弾の状況を目の当たりにしたとき、
    ロボット自らが重要な事項のみを列挙できることが、
    フレーム問題の解決になっていくのです。

    しかしそれを素直にやろうとすると、
    まさしく3号機目のロボットと同じ失敗に陥ることになります。
    なぜなら、ロボットが認識した全ての事柄に対して重要度をつけさせようとすると、
    この事柄は重要なのかそうでないのか、無限に調べ上げることになるからです。

    総当りで調べ上げることなく、
    いかに関係のあることのみを切り出すか。
    いかに関係のないことを無視するか。

    人間が当たり前のようにやっている無意識下での知性の振る舞いを機械的に表現することが、
    フレーム問題の難しさであり、我々が解くべき人工知能の重要課題なのです。

    —————————————————————————————–

    以上がフレーム問題の説明です。
    フレーム問題への認識、改めていただけましたでしょうか。

    ある意味人間の思考そのものを定式化する話でもあるわけで、
    だからこそ、フレーム問題が解決したともなれば、
    人工知能に興味をもつ人は誰しも気になるわけです。

    しかし、いざその記事を読んでみると、がっかりしてしまいます。

    なんだ、解けたのは「フレーム問題」ではなく、
    「ロボットがバッテリーの上に乗っている爆弾をどかす問題」なんだ…と。

    3Dモデルを生成して物理シミュレーションさせるアプローチは斬新だし、
    視覚的な情報をもとに想像をめぐらせる人間の行動ともマッチするので
    田方さんの提案手法を全否定するつもりはありません。

    しかしシミュレーションを使う場合においても、
    ロボット自らになにをどうシミュレーションすればいいのかを判断させる必要があります。
    天井が崩壊するシミュレーションはやったほうがいいのか、
    時限爆弾が爆発するまで待機するシミュレーションはやったほうがいいのか…。
    このときも、やはりフレーム問題にぶち当たるわけです。
    そんなの明らかに無駄じゃん!関係ないじゃん!と思えるようなことを
    ロボットにどう無視させるかが重要なのです。

    わたしも人工知能に興味があり、田方さんのやろうとしていることには大変共感します。
    だからこそ、間違っていることは指摘し、軌道修正していただきたいと考え、
    これまでコメントをさせていただきました。
    それらのコメントが田方さんの力添えになれば幸いです。

    • 田方 篤志 田方 篤志 より:

      Aさん
      ご意見ありがとうございます。

      もし田方さんがフレーム問題について認識を改めるつもりがなければ、
      以下、読んでいただく必要はありませんし、わたしもこれ以上のコメントを控えます。
      ・・・
      フレーム問題への認識、改めていただけましたでしょうか。

      フレーム問題への認識を改めろといわれても、僕のどういう認識を改めないといけないのかという肝心のことが書いていないので、何を改めないといけないのか、または反省しないといけないのか分らず、本当に困っています。

      Aさんは、10/30のコメントで、「無限探索に陥ることがフレーム問題と思っていませんか?」と勝手な推測をしていたので、それに対して僕は「そんなことは思っていないです」と丁寧に説明しております。
      それにもかかわらず、10/31のコメントで「やはり、無限探索に陥ることがフレーム問題だと勘違いしていませんか?何度も申し上げますが、無限探索を回避するために人間がフレームを定義してあげることは、フレーム問題の解決ではありません。」と、勝手に僕の認識を作り上げた上で、それは間違ってると、また怒られてしまいました。

      そして今回はとうとう、僕がどう間違っているかすら説明せずに、「その認識を改めろ」と僕を強く責めます。
      でも、何を改めないといけないのか言ってもらわないと、僕も改めようがないです。
      お願いですから、僕のどこが間違っていたのか教えてください。
      もう、泣きそうです(T_T)

      僕が何を改めないといけないのかはひとまず置いておいて、議論を先に進めましょう。

      前回の僕からの指摘で、Aさんはようやく自分の認識間違いを改めてくれたようで^^;
      「フレーム問題」の何が問題かを正しく認識してくれたようです。
      これで、ようやくフレーム問題の本質的な議論ができますね。

      それでは、「フレーム問題」のポイントについて、爆弾が乗ったバッテリを洞窟から取り出すロボットの例で説明します。

      ロボットがバッテリを洞窟の外に移動させようとするとき、バッテリの移動に関係しそうな事柄を全て列挙し、バッテリを移動すれば爆弾が爆発しないか、バッテリを移動すれば壁の色が変わらないか、バッテリを移動すれば天井が落ちてこないか・・・と無限の事柄について調べないといけないことが問題となります。

      これに対し、人間ならバッテリを移動するのに壁の色が変わるかとか、天井が落ちてこないかとか悩むことなくバッテリを運び出すことができます。

      人間にできて、なぜ、ロボットにできないのでしょう?
      それは、ロボットは自ら何が重要な事項か列挙できないからです。どこまでが重要なのか、枠組み(フレーム)を決めれないからです。
      これが「フレーム問題」です。

      さて、このバッテリ問題の場合、人は、どうやってフレーム問題を解いているのでしょう?
      このことについて、Aさんは「厳密にはわからない」けれども「無意識下」で「何となく判断」していると述べています。
      僕は、この「無意識化で何となく判断」していることを、意識的に注意深く考え、苦労して解法として導き出しました。

      それでは、人間が無意識に行っている方法を説明します。
      バッテリを移動させると、その上に乗った爆弾も移動することがわかります。
      そこで、爆弾を移動させないようにするために爆弾をのけてからバッテリを移動させればよいと人間は判断します。
      このように人間が頭の中でイメージするのと同じことをロボットができれば、ロボットでもフレーム問題を回避することができると考えました。
      それが記事に書いた、3Dシミュレーションを使った方法です。

      もう少し詳しく説明します。
      バッテリのみ洞窟の外に運びだす目的を設定し、バッテリを洞窟の外まで移動させるシミュレーションをコンピュータで行います。
      すると、爆弾も洞窟の外に移動することがわかります。
      そこで、次は、爆弾を移動させない目的を設定します。
      「Aの上にBが乗っていれば、Aを動かすとBも一緒に動く」という知識を持っていれば、「Aの上にBが載っていなければ、Aを動かしてもBは動かない」という知識を導きだすことができます。
      この新たな知識を適用すれば、爆弾をバッテリの上からのければ、バッテリのみ洞窟の外に移動させることができると推測することができます。

      爆弾をバッテリからのければ、バッテリのみ洞窟の外に運び出すことができるのです。
      このことは言い換えると、爆弾をバッテリからのけることは重要であり、壁の色が変わるかとか、天井が落ちることは重要でなく、シミュレーションまでして調べる必要がないと判断しているわけです。
      つまり、何が重要で、何が重要でないかという、まさに「フレーム問題」を解いていることになるのです。

      意外とあっさりフレーム問題が解けてしまいましたね。
      それじゃ、逆に、マッカーシーは、なぜ、こんな簡単な問題が解けないと思ったのでしょう?

      それは、マッカーシーの想定したのが迷路探索問題だったからです。
      迷路問題を解くには、分かれ道を全て列挙し、それらを全て調べ上げて解きます。
      それと同じことを現実問題に当てはめてみましょう。
      考えるべきことが無限にあるので、全部考えていればロボットがフリーズしちゃうじゃん!
      ほら、AIロボットなんか作っても、現実には役にたたないでしょ!
      (`^´) ドヤッ‼

      これがマッカーシーの論理です。
      でも、こんな論理、どこか変ですよね。
      どこか間違ってますよね?

      それは、現実世界で問題を解くのに、まず考えられる方法を全て列挙し、次は、何も考えず、ただそれを上から順に全て調べるってとこです。
      そんなこと、人間がしますか?
      しないですよね。

      人間が無意識で行っていることを、意識して書き出したのが、僕が提案した手法です。
      全ての問題がこの手法で解決できるわけではないですが、少なくとも、どんな問題が起こっても、考えられるあらゆる方法を列挙し、上から順番に調べるという解法しかしないというのは、かなり無理のある論理です。

      それでは、マッカーシーは、なぜ、こんな極端なことを言ったのでしょう。
      それは、1960年代の人工知能を考えると、探索の方法は、こういった方法しかなかったので、それは致し方なかったのかもしれません。

      でも、そこから50年以上経った現代は違います。
      コンピュータ技術が発展し、問題を解く手法も他にも色々あります。
      マッカーシーが提案する方法しか使ってはいけないなどと、だれも言っていません。

      これが僕の言いたいことです。
      「フレーム問題」は解決済みとは、こういうことです。

      さて、今までのAさんとの議論から考えると、僕の提案する手法に対する反論がいくつか考えられます。
      まずは、この手法で解けるのは、ロボットがバッテリの上に乗った爆弾をどかす問題だけじゃないかと。
      それ以外の問題は解けないじゃないかと。

      これに対する僕の回答はこうです。
      目的の行動のシミュレーションができ、目的の行動に必要な知識を持つ。
      目的に応じて行動を分割し、関連する知識を組み合わせて適用する。
      これができる問題なら、バッテリ問題以外でも解けるでしょう。
      しかし、全ての問題がこの手法で解けるわけではありません。
      解けない問題が出てくれば、また、別の手法をプログラムで組まないといけません。

      そうなると、次の反論がでてくるでしょう。
      問題が起こるたびにプログラムを組んで教えていては意味ないじゃないかと。
      教えなくとも、何でも自分で解決できるロボットでなければ使い物にならないではないかと。

      このことに関しては前回も回答しましたが、人間でも知らないことはありますし、知らないことを教えてもらって人は成長します。
      AIロボットも同じです。
      目標とするのは、人間と同程度のAIであって、何でもできる全知全能の神のようなAIロボットを目指しているのではありません。

      または、次のような反論があるかもしれません。
      この方法は、人間がプログラムを組んでロボットに教えているのであって、ロボット自ら考えているのでないと。

      これに関しては、「その通りです」としか答えようがありません。
      どんなAIロボットであっても、何のプログラムもなく、自ら勝手に考えて動き出すことはあり得ません。
      最低限のプログラムは人間が組んで教える必要があります。

      Aさんの今までのコメントから考えられる反論はこのぐらいでしょうか?
      Aさんのおかげで、多くの人が「フレーム問題」の何を勘違いしているのかよく理解できました。
      これで、「フレーム問題」について考えられる全ての疑問に回答したと思いますので、Aさんも「フレーム問題」は解決済みだということが理解できたことでしょう。
      もしかしたら、プログラムを作ったことがなければ、理解が難しい点があったかもしれません。
      もし、まだわからないことがありましたら、どの部分がわからないか正確に引用して質問していただければと思います。

  26. 通りすがりん より:

    田方さん

    はじめまして。

    早速で失礼ですが質問があります。

    バッテリーの上に爆弾が置かれている状況があるとして、その周りの環境が爆弾を放置できない状況であった場合、ロボットはそれをどのように判断するのでしょうか?

    例えば、大勢の人混みの中だとか、そこでは爆発させてはいけない状況にあった場合にはどうするのかと。

    もし人間だったら、その場の状況を見て、爆弾とバッテリーを安全な場所に移動して、そこで爆弾を取り外してからバッテリーのみを持ってくるとか、どのような状況であれ、ある程度迅速に判断して処理すると思うんですよね。

    爆弾とバッテリーがおいてある環境やシチュエーションなんて、言ってしまえば無限にあると思うのですが、そんな中、ロボットが「ここで処理してもOK。」「ここで処理してはダメ。」「ここまで運んで処理すれば大丈夫。」など、二次的被害、三次的被害も考慮しなければならない場合、何を基準に爆弾処理の仕方を判断するのでしょうか?

    ちなみに、ロボットのカメラで見える範囲以外にも人がいたりしますので(建物の中とか、隣の部屋とか、街中を走る電車の中とか)、周囲をスキャンしてシミュレートするだけでは不十分な場合もあるかと思います。

    人間は、目に見える状況以外のことも考えて、想像力を働かせて安全な処理判断することができると思いますが、このような状況であったとしても、ロボットは人間と同じように行動できますか?

    以前書かれてた「人間と同じ知識をロボットが学習すれば解決できる」と言われていましたが、人間一人の知識といってもすっっっごく膨大なので、自分的には「学習すれば解決できる」とあっさり言えるほど簡単なことではないのではないかと思っています。

    ということで、下記のような疑問があります。

    ①ロボットは、どのような状況であったとしても、二次的被害、三次的被害を考慮するなど、人間と同じように行動できますか?
    ②もし、同じ行動ができる場合、ロボットは何を基準に現場の様々な状況を判断して爆弾処理を行うのでしょうか?
    ③膨大で複雑な人間の知識を、どのようにして人間と同じようにロボットに学習させるのでしょうか?
    ④どれ程の知識(情報量)をロボットに学習させれば「人間と同じ知識を有したロボット」が完成できるのでしょうか?

    自分は素人なので、厳密なところの「フレーム問題」とは関係がない質問も中にはあるかもしれませんが(それすら素人なので判断できません)、下記は今までの議論を読んできた中での率直な疑問として思い浮かんだものですので、もし教えて頂けるのであればありがたいです。
    よろしくお願いします。

    • 田方 篤志 田方 篤志 より:

      通りすがりんさん、質問ありがとうございます。

      おっしゃる通り、この質問は「フレーム問題」を超えた質問になっていますね。
      ただ、このような疑問の方が、よりAIの本質に近く、難しい問題となります。
      本来の「フレーム問題」自体は、記事にも書いたとおり、簡単な問題なんです。

      通りすがりんさんの質問こそ、ロボマインド・プロジェクトが取り組んでいる課題となります。
      すべての疑問に答えれるわけではありませんが、できるだけ回答していきます。

      まず、膨大で複雑な人間の知識をどう扱うかについてです。
      これは、常識をどうやってAIに教えるかという古くから存在する問題です。
      その一つの解決策として、「概念」で管理するというものがあります。
      「ラーメン」は食べれる、「チャーハン」は食べれると、食べれる物をすべて列挙するのでなく、「ラーメン」「チャーハン」は食べ物概念に属し、食べ物概念に属する物は食べることができると管理するものです。
      このような考え方はオントロジーなど、古くからおこなわれていて、ロボマインド・プロジェクトでも採用しています。
      詳しくは「言葉の意味をどう定義するか」を参考にしてください。

      次は、人間と同じように行動できるかの話です。
      ここが、ロボマインド・プロジェクト独自の方法で、人間の行動を感情(認知パターン)で整理するというものです。
      詳しくは「認知パターン」を読んでもらえればわかると思うのですが、たとえば、善悪といった概念は、社会(第三者)にとって良いことか、悪いことかで定義できます。
      良いこととは、その人にとってプラスとなること、悪いこととは、その人にとってマイナスになることです。
      たとえば、道にゴミを捨てると住民は困りますよね。これは悪です。
      道で迷っている人を助けると、その人は喜びますよね。これは善です。
      こういった善悪や概念で状況を整理すれば、「洞窟の中で爆弾を爆発させる」「ビルの中で爆弾を爆発させる」・・・とシチュエーションが無限にあったとしても、現実的に計算可能なレベルまで計算量を減らせることができると考えます。

      「どのような状況でも可能か」とか、「どの程度の知識を学習させれば完成か」といった質問ですが、これは正直わからないとしか答えれないです。

  27. ぱんだ より:

    田方さん

    はじめまして。
    田方さんのAさんへの回答の中で、気になることがありましたのでメッセージさせていただきました。

    >> それでは、人間が無意識に行っている方法を説明します。
    >> バッテリを移動させると、その上に乗った爆弾も移動することがわかります。
    >> そこで、爆弾を移動させないようにするために爆弾をのけてからバッテリを移動させればよいと人間は判断します。
    >> このように人間が頭の中でイメージするのと同じことをロボットができれば、ロボットでもフレーム問題を回避することができると考えました。

    「人間が頭の中でイメージするのと同じことをロボットができれば・・・」という点について。

    爆弾問題について、仮に下記のようなシチュエーションがあったとします。

    目の前で「赤ちゃん」に爆弾が仕掛けられています。
    その隣には「不治の病が100%完治する薬」に爆弾が仕掛けられています。
    その隣には「モナリザの絵(本物)」に爆弾が仕掛けられています。
    その隣には「現金100億円」に爆弾が仕掛けられています。
    この4つの爆弾は全て連動しており、その内一つだけ解除して取り外すことができます。
    助けられるのは一つだけです。

    そこで、その状況を見た
    人間Aは、瞬時に無意識に赤ちゃんの尊い命を救わねばと頭の中でイメージしました。人間として当たり前の行為だからです。
    人間Bは、瞬時に無意識に薬を守らねばと頭の中でイメージしました。世界の人々の命を救えるので迷いはありません。
    人間Cは、瞬時に無意識に貴重な絵画を守りたいと頭の中でイメージしました。歴史的価値のある絵画は人一人の命や大金より遥かに尊いからです。
    人間Dは、瞬時に無意識に100億円を守りたいと頭の中でイメージしました。100億円あれば飢餓に苦しむ大勢の命が助けられるので当然の選択です。
    上記4人の人間は、生まれた国も性別も年齢も学歴もそれぞれバラバラです。

    では田方さんに質問です。
    AIロボットは、どの「人間」の「頭の中をイメージ」して「どの爆弾を取り外す」のでしょうか?

    >> 人間が頭の中でイメージするのと同じことをロボットができれば、ロボットでもフレーム問題を回避することができる。

    田方さんは、このようにフレーム問題を回避できると言われておりますので、上記シチュエーションの中で、AIロボットが「何が重要」で「何が重要でないか」をどのように判断して上記の問題を解決するのか教えてください。
    教えて頂ければ、「フレーム問題が解決済み」であることを、私自身ちゃんと納得出来て夜もぐっすり眠れるものと思います。

    ちなみに、人間である私は、あることを瞬時に無意識に頭の中でイメージして、あるものから見事に爆弾を取り外すことができました。
    ですので「人間が出来ないことはロボットにもできない」という前提は成り立たないものとします。

    それではご回答よろしくお願い致します。

    • 田方 篤志 田方 篤志 より:

      ぱんださん、質問ありがとうございます。

      ぱんださんの質問は、いわゆる「トロッコ問題」と言われるもので、「フレーム問題」ではありませんね。

      「フレーム問題」とは、AIを現実世界に投入したとき、人間なら簡単に解ける問題でも、AIは無限の選択肢をすべて計算しようとして動けなくなってしまうという問題です。
      「トロッコ問題」は、すべての選択肢が実行不可能であるので、「フレーム問題」とは根本的に異なる問題となります。
      「トロッコ問題は解決済み」という話ではないので、ぐっすりお休みください。

      ちなみに、人間である私は、あることを瞬時に無意識に頭の中でイメージして、あるものから見事に爆弾を取り外すことができました。

      ここがちょっとよくわからないのですが、これは、ぱんださんは、

      目の前で「赤ちゃん」に爆弾が仕掛けられています。
      その隣には「不治の病が100%完治する薬」に爆弾が仕掛けられています。
      その隣には「モナリザの絵(本物)」に爆弾が仕掛けられています。
      その隣には「現金100億円」に爆弾が仕掛けられています。
      この4つの爆弾は全て連動しており、その内一つだけ解除して取り外すことができます。
      助けられるのは一つだけです。

      の問題を解く方法がわかったということでしょうか?
      もしそうなら、その方法を教えてもらえれば、ロボットでも解決できると思います。

      ただし、プログラム可能な方法に限るのですが。
      超能力を使って、一瞬で爆弾を消滅させるとか、そういうのはナシですよ。
      わかっているとは思いますが。

  28. ぱんだ より:

    田方さん

    ご回答ありがとうございます。

    私の解答についてですが、答えは「モナリザの絵(本物)の爆弾を解除する」です。

    まず、赤ちゃんが寿命をまっとうするまで待ちます。
    もちろんその間は爆弾を付けたまま過ごすことにはなりますが、他の爆弾とは「連動」しているだけで、コードが繋がっているわけではありません。
    また、問題に「時限爆弾」とは書いていませんでしたので、解除するのに時間的な制限はありません。
    ただ、いくら時間制限が無いとはいえ、取り外すことが目的ではありますので、「放置する」というのは解決したことにはなりません。

    「不治の病が100%完治する薬」は、薬だけが爆発するだけで開発ノウハウそのものはどこかに残っているので、また作れば大丈夫です。

    現金「100億円」は、仮に爆発して無くなっても、また発行すれば何とかなるという解答もできますし、モナリザの絵を誰かに100億円で買い取ってもらえれば大丈夫です。
    100億円でも安いみたいなので、もっと高値で買い取ってくれるかもしれません。

    実はこの問題は、倫理観を問う問題ではなく、人間が論理的に考えれば解ける問題です。

    もちろん「赤ちゃんが寿命をまっとうするまで待つ」というのは非現実的な解答かもしれませんが、論理的な解決方法という意味では間違ってはいないと思います。

    「時限爆弾ではない」という前提も、ロボットが目の前の爆弾を調べた結果導き出された状況という意味で「時限爆弾」とは書いていないだけで、言葉を読み解く論理パズルのような問題でもありません。

    眼の前にある状況を「論理」を持って解決するのか。
    それとも「倫理」を持って解決するのか。

    このように、ロボットが「どちらの解決方法を選択しなければならないのか?」という状況に遭遇したら、何気に思考停止に陥りそうな気がするのですが、どうなんでしょうか?

    • 田方 篤志 田方 篤志 より:

      ぱんださん

      お返事、ありがとうございます。
      みごとな解答でしたね。
      すばらしい「とんち」だと思います。

      ただ、申し訳ございませんが、ここは「とんち道場」ではございません。
      ここは、「フレーム問題」について議論する場で、「とんち」や「なぞなぞ」を出し合ったりする場ではありません。
      ましてや、田方を困らせる問題を出した者が勝ちといったゲームではありませんので。
      その点を理解していただいて、今後は、「フレーム問題」と直接関係のない質問やコメントは、「お問合せ」からしていただければと思います。

  29. zonvaio より:

    田方さん
    はじめまして。AIについては全くの素人ですがこの記事とコメントのやりとりを見て興味をそそられたので自分の考えを勝手に羅列させて頂きます。

    まずフレーム問題の定義が人によってまちまちなのかなと思ったのでwikipedia先生を参考とさせて頂きます。

    “有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができないことを示すもの”

    まず”問題に対処する”というのが”求めている作業を遂行する(爆弾を処理するなど)”と解釈する事を前提とさせてください。

    であるならば問題対処に当たり起こりうる課題について想定出来る範囲で判断基準を事前学習させておき、事前学習させたどの判断基準にも適合しない事柄が発生した場合は爆弾処理をするかしないか2択を選択させるようにプログラムする。(爆弾処理を継続しない場合人間にその旨を報告するなど)
    そうすればロボットは止まらず(無限思考)何かしらの行動を起こすはずです。

    この場合爆弾処理は出来ない(問題対処)かも知れません。

    話を拡大します。
    爆弾処理以外にも様々な問題に対しても判断基準を事前学習させておきます。
    本来あらゆる問題が無限の数だけあるように、その判断基準も無限にあると思います。なので人間がロボットに対し無限の数だけ判断基準を学習させることは不可能です。

    では人間の場合です。
    あらゆる問題に対して人間は個人差はあれどあらゆる判断基準を持っていますがその判断基準は経験則によるものだと思います。何となく判断したものについても必ず何かしらの理由があるはずです。
    たとえば本能だって理由だと思います。

    もし仮にロボットの中の判断基準に適合しない事が発生しても学習を人間に依頼するようプログラムしておけば思考ループに陥る事は無いと思われます。

    それはフレーム問題じゃない。フレーム問題の解決になってないと言われたらそれまでですが、
    人間だってわからない事があったら調べたり誰かに聞いたりすると思います。
    (人間もフレーム問題を解決出来てないとはこーゆー事なのでしょうか?)

    目指すべきAIの姿が何か、AIとは何かという話しにもなりそうですが上記のようにプログラムすれば人間の様な振る舞いをするロボットは作れると思います。
    (ここでいう振る舞いとはあくまで思考パターンのみで体の動きとかでない)

    大事なのは目指す姿がどこなのかだと思います。

    長々と長文で失礼しました。
    また、今回の議論の趣旨と外れてるかもというのも薄々感じております。

    ※ぶっちゃけ自分もアホなのでよく思考停止するし自分では判断出来ないときはすぐ誰かに聞いちゃうので、自分より優秀なロボットなんかいくらでも作れそうだなって思います。笑
    それがAIと呼べるかは不明ですが。

    • 田方 篤志 田方 篤志 より:

      zonvaio様

      コメント、ありがとうございます。
      ほぼ、zonvaioさんのおっしゃる通りだと思います。
      人間も、現実に起こり得る全ての可能性を調べているわけではないですが、優先順位をつけて、通常起こり得ないことは無視するなどして工夫しながら探索しています。
      全ての可能性を調べきれてないということに関しては、人間も「フレーム問題」を解決していないと言えますが、工夫して対処しながら問題なく生活していますので、ロボットにも、人間と同じように対処させればいいだけの話なのです。
      「フレーム問題」が生まれた1960年代の人工知能なら、起こり可能性のあること全て調べるしか探索方法がなかったのですが、現在なら、人間と同じように調べることは可能です。
      「フレーム問題」が起こると言い続ける人は、なぜ、未だに1960年代の探索方法しか使わないのか不思議で仕方がないです。
      世界中で言われ続けていますし。
      これを僕は「フレーム問題」の呪いと呼んでいます。

  30. ねこみみ より:

    フレーム問題は「解決」できず、「回避」できるのみと私は考えています。
    というのも、フレーム問題は、無限(またはほとんど無限と言って差し支えないほどの膨大な量)の問題に対して、時間計算量的・空間計算量的に有限のリソースしか持ち得えなければ全探索は不可能、という極めて単純な原理に基づいているからです。

    ならばどうやって回避するのかというと、全探索を諦めるのですから、ヒューリスティクスを用いるよりありません。
    そうすれば、限られたリソースで「それなりに正解っぽい」答えを導くことができます。
    ただし、その場合は導かれた答えが本当に正解(最適解)かどうかは保証がありません。
    局所解に陥っている危険性を孕むわけです。

    これはAIを人間に置き換えても同じことではないでしょうか。(AIにおけるフレーム問題を、人間の認知における問題に拡張すると、一般化フレーム問題と呼ばれるようですね)
    人間は知識や経験、あるいは生物学的な本能などに基づくヒューリスティクスを用いて、現実の問題に対処しようとしていると言えると思います。
    なので、たいていはうまく対処できているように見えますが、たまには想定外の事態が起こるし、どんなに最善を尽くしたつもりでも、後になってやっぱり失敗だったと気づいて後悔したりもします。

    このように、AIでも人間でも「想定外」をリスクとして抱えることが、ヒューリスティクスを用いてフレーム問題を回避することとトレードオフになっていると言えるでしょう。

    結局のところ、田方さんが仰っている「AIにも人間と同じように判断させれば良い」というのは、「AIに人間と同等のヒューリスティクスを実装すれば良い」と言い換えられると思います。
    そうすれば確かにフレーム問題を回避できます。

    ただ、おそらくこれが言うほど容易いことではなかったというのが、過去2度のブームを失敗してきたAI史の闇の正体ではないかと思います。
    問題なのは「人間と同等の」と言う部分です。
    フレーム問題が提起されるようなシーンで使う「AI」は、汎用人工知能を指すと思いますが、これが実現できたと言えるためには、少なくとも社会に生きる多くの人間と同様の振る舞いができなくてはいけません。

    どなたかのコメントにも似たような例があったかと思いますが、AIにお金を渡してマクドナルドでハンバーガーを買ってくるように頼んだだけなのに、いつの間にか警察の厄介になっているようでは困るわけです。(途中でヤンキーにどつかれてお金を盗られ、ハンバーガーを買えなくなってしまったのですが、他人のお金を盗ることを学習したので、同じことをしてハンバーガーを買おうとしたとか)

    失礼を承知で申し上げますと、田方さんの上のレスにある「通常起こり得ないことは無視するなどして工夫しながら」という言葉からも、人間と同等のヒューリスティクスの実装はまだまだ難しそうということが垣間見える気がします。
    「通常」とか「など」とか「工夫」とか、曖昧さを象徴する言葉が無意識に入ってしまっていますよね。

    別に田方さんがというわけではなくて、人間自身が普段無意識に使っているヒューリスティクスがどういうものなのか、完全には理解できていないということだと思います。
    そういった現状を踏まえ、今後のAI研究の発展のためには、認知科学、社会科学、神経科学などの、他分野の研究が不可欠と論じておられる研究者の方も(かなり以前から)おられるようです。

    一方で、現在3度目のAIブームですが、その方向性は汎用人工知能よりも、限定的な問題を解くことに特化して、人間の判断の補助に利用する方向で進んでいると思います。

    言いたかったことのまとめ:
    フレーム問題はヒューリスティクスで回避すれば良い。
    ただし、必然的に想定外というリスクを許容しなくてはならない。
    このリスクを人間と同等のレベルにまで下げるのが難しかったというのがこれまでのAI史の闇。
    今後、これは達成できるだろうか?(なんとも言えないが、個人的にはわりと悲観視している)

    • 田方 篤志 田方 篤志 より:

      ねこみみ様

      コメント、ありがとうございます。
      「フレーム問題」の中身に沿ったコメントが増えてきて、嬉しく思っています。
      ねこみみさんのおっしゃる通りだと思いますが、いくつか、コメントさせてください。

      ヒューリスティクスという言葉は、僕は敢えて使わないでいました。
      なぜかというと、ヒューリスティクスとは具体的な解法を指すのでなく、その場に応じてうまく対応するといった程度の意味しかなく、そのような曖昧な言葉で議論しても議論にならないからです。
      たしかに僕は、「人間と同じように判断させる」との表現をしていますが、これはヒューリスティクス的に対応するという意味でなく、記事にも書いたように、「爆弾が上に乗ったバッテリを洞窟から取り出す」という問題において、「物理シミュレーションで確認しながら動作を決定する」という手法のことを指しています。
      これが「人間が頭の中でイメージする」こととほぼ同じなので、「人間と同じように判断させる」との言葉でまとめただけです。
      僕は、ヒューリスティクスで回避すればよいとは一言も言っておらず、そのように考えてもいませんので、その点は誤解のないようにお願いいたします。

      「フレーム問題」とは、全探索していては無限の時間がかかる問題です。
      人間は、考えても無駄なことは調べもせず、効率よく行動しています。その一つの手法として、僕は物理シミュレーションを提案したわけです。
      この方法であらゆる問題が解決するとは思っていませんが、少なくとも、バッテリ問題は、この方法を使えばAIロボットでも解けそうです。

      ジョン・マッカーシーの時代には、全探索問題は全て探索するしか解きようがなかったかもしれませんが、それから50年以上経った現代では、さまざまな手法を工夫すれば、バッテリ問題なら、いくらでも解きようがあると思っています。
      (「さまざま」とか「工夫」とかの曖昧な言葉を使ってしまったので、また、ねこみみさんから怒られそうですが)

      僕が提案する「物理シミュレーション」は一つの例で、これであらゆる問題が解決するとは思っていません。
      しかし「物理シミュレーション」で解けない問題が出てくれば、他の方法を工夫すれば解ける可能性はあります。
      これを「ヒューリスティクス的に解決」と一言で表現するのはちょっと乱暴ですので、個々の問題ごとに議論すべきと思いますが。

      個人的には、現在のAIブームの主流であるディープラーニングは、画像処理や機械翻訳など、正解が存在する問題ではうまくいきますが、そうでない問題、たとえば人間が普段する日常会話などには全く適用できないと考えています。日常会話ができるようになるには、人間の心や意識が解明できないと無理ではないかと思っています。
      認知科学や社会科学、神経科学など他の分野の研究を参考にすればいいとの意見もありますが、そういった分野で心や意識が解明されているわけではないので、参考にしたところで、人間のように会話できるAIができるとは思えません。
      そこで、意識や心の仕組みを解明したロボマインド・プロジェクトが意味を持ってくるのです。
      もし、興味がありましたら、研究開発ブログを最初からお読みください。

  31. ねこみみ より:

    田方さん
    お返事ありがとうございます。
    お返事の内容を読ませていただいて、まず議論が噛み合ってないように感じました。

    先のコメントにも書きましたが、フレーム問題は汎用人工知能を議論するときに大前提となってくる問題という認識です。
    ですので、汎用人工知能を想定してコメントを書いていました。

    ですが、田方さんのコメントを読むとある特定の問題を解決する特化型人工知能のことをお話しされているように思います。
    さらに言えば、「人間と同じように判断させている」というより、人間の判断をお手本としてそれをエミュレートさせているだけのように思えます。
    こういった手法は第二次AIブームの時のエキスパートシステムが好例ですが、一定の成果を上げたとともに、汎用人工知能よりも特化型人工知能にAI研究が進んでいった経緯があります。
    そして、現在でも特化型人工知能に注力したAI研究が主流かと思います。

    田方さんのプロジェクトがどこを目指しているのがイマイチよくわからないのですが、「意識や心の仕組みを解明した」と仰るからには、何かそれに関する論文は出されていますか?
    査読がないブログよりも、査読された論文がある方がずっと信頼できるので、そちらを紹介していただけると幸いです。

    • 田方 篤志 田方 篤志 より:

      ねこみみ様

      お返事、ありがとうございます。
      今回のコメントを読んで、どうやら、ねこみみさんは、いろいろ誤解されていることがわかりました。

      お返事の内容を読ませていただいて、まず議論が噛み合ってないように感じました。
      先のコメントにも書きましたが、フレーム問題は汎用人工知能を議論するときに大前提となってくる問題という認識です。

      議論が噛み合ってないというより、どうも、ねこみみさんは、AIについて、それほど詳しくないようですね。
      まず、「フレーム問題」は、汎用人工知能の議論の前提にする話ではありません。
      「フレーム問題」でジョン・マッカーシーが言いたかったのは、「AIロボットができたとしても、バッテリを洞窟から持ち出すことすらできない。だからこれ以上AIを開発しても時間の無駄になるよ」ということです。
      なので、バッテリ問題を解決すれば、少なくとも、ジョン・マッカーシーの主張は覆すことができます。
      ただ、バッテリ問題を解決したからといって、そのAIロボットは、人間ができるどんなことでもできるという話にはなりません。
      つまり、「フレーム問題」が解決したからといって、それが汎用人工知能になるわけではありません。
      そもそも、「フレーム問題」が提案された1969年は、まだ、汎用人工知能という言葉も概念もありませんでしたので、「フレーム問題」と汎用人工知能をつなげて考えるのには無理があります。
       
       

      田方さんのコメントを読むとある特定の問題を解決する特化型人工知能のことをお話しされているように思います。
      さらに言えば、「人間と同じように判断させている」というより、人間の判断をお手本としてそれをエミュレートさせているだけのように思えます。

      この文章から、おそらく、ねこみみさんは、プログラムというものを自分で作ったことがないことが分かります。
      少なくとも、プログラムに関する知識がほとんどないと思われます。
      プログラマーなら、「人間の判断をお手本としてそれをエミュレートさせているだけ」が、どれほど難しいかということかをわかりますので、気軽にこんなコメントは出てきませんので。
      もし、人間の判断をお手本にしてエミュレートできたとしたら、それこそ、汎用人工知能ですよ。
      それができないから、みんな悩んでいるのです。
       
       
      前回は、「ヒューリスティック」について、「人間は知識や経験、あるいは生物学的な本能などに基づくヒューリスティクスを用いて、現実の問題に対処しようとしている」とか、「社会に生きる多くの人間と同様の振る舞い」と説明し、マクドナルドでハンバーガーを買ってくるように頼まれて、警察の厄介にならないようにするのが人間と同等のヒューリスティックと述べておられました。

      これらの言葉からも、ねこみみさんは、人工知能でいうヒューリスティックをあまり分っていないと感じました。
      たしかに、人工知能のヒューリスティックを辞書で調べると、人間の経験などによって正解を導き出すようなプログラム上の工夫というような説明がされていますが、それは、ねこみみさんが思っているような大げさな話ではありません。
      たとえば、ある解法において、特定の条件でパラメータを変更したりすれば、なぜかうまくいくというような、人間の経験に根差した工夫をヒューリスティックといいます。
      ハンバーガーを買いに行ったけど、途中でお金を盗られるといった例外が起こった場合の人間の工夫のことは、ヒューリスティックとは決して言いませんので。

      「フレーム問題」や「汎用人工知能」、「ヒューリスティック」といったAIに関する知識は、ねこみみさんは、本で軽く読んだりネットで調べただけの知識で語っているだけではないでしょうか?
       
       

      こういった手法は第二次AIブームの時のエキスパートシステムが好例ですが、一定の成果を上げたとともに、汎用人工知能よりも特化型人工知能にAI研究が進んでいった経緯があります。
      そして、現在でも特化型人工知能に注力したAI研究が主流かと思います。

      この短い文章もちょっと意味がわからないですね。
      どこからツッコんでいいのか悩みますが、まずは、汎用人工知能から特化型人工知能にAI研究が進んでいったとのことですが、真逆ですよ。特化型人工知能から、現在は汎用人工知能を目指して研究が進んでいるのですよ。
      よく2045年のシンギュラリティと汎用人工知能の実現がほぼ同等の意味で使われます。
      このことからも、汎用人工知能という言葉が使われだしたのは最近のことといえます。

      また、第二次AIブームで行っていたのは汎用人工知能と読み取れますが、第二次AIブームで行われたものは汎用人工知能ではないです。
      それと、エキスパートシステムも、汎用人工知能ではないですよ。
      たぶん、何かの読み間違いだと思うので、読んだ本を読み返してみてください。
       
       

      田方さんのプロジェクトがどこを目指しているのがイマイチよくわからない

      だから、研究開発ブログを最初からお読みくださいとアドバイスしたと思うのですが。
       
       

      「意識や心の仕組みを解明した」と仰るからには、何かそれに関する論文は出されていますか?
      査読がないブログよりも、査読された論文がある方がずっと信頼できるので、そちらを紹介していただけると幸いです。

      これが、ねこみみさんの最も大きな勘違いのようですね。
      僕は、大学や研究所に所属したり、誰かに頼まれてお金をもらって研究しているわけではありません。
      単に、好きでソフトを作っているだけですよ。しかも自分のお金で。
      だから、論文を書く義務もないですし、論文を書くことにも興味がないので論文は書いていません。
      ただ、興味ある人に読んでもらおうと思って、自由にブログを書いているだけですので。

      もし、ねこみみさんが興味あるのでしたら、ぜひブログをよんでいただければと思いますが、興味がなければ、無理に読む必要はないですよ。

  32. ねこみみ より:

    田方さん
    お返事ありがとうございます。
    想像以上に人格否定的なコメントが含まれていて、少々びっくりしました。
    私はAIの研究者ではないので、ご指摘の様に「AIについて、それほど詳しくない」と言われれば、確かにその通りです。

    その上で、いくつか確認させてください。(文脈上、一部順番が前後しているところもあるのでご了承ください)

    >>まず、「フレーム問題」は、汎用人工知能の議論の前提にする話ではありません。「フレーム問題」でジョン・マッカーシーが言いたかったのは、「AIロボットができたとしても、バッテリを洞窟から持ち出すことすらできない。だからこれ以上AIを開発しても時間の無駄になるよ」ということです。なので、バッテリ問題を解決すれば、少なくとも、ジョン・マッカーシーの主張は覆すことができます。

    これは本当ですか?
    マッカーシーはAI研究の第一人者で初期のAI研究を強く推進していたと人物と思いますので、AI開発に否定的なことを言ったとはにわかに信じられません。
    そこで、フレーム問題について述べられているマッカーシーとヘイズの「SOME PHILOSOPHICAL PROBLEMS FROM THE STANDPOINT OF ARTIFICIAL INTELLIGENCE」(1969)に当たってみました。幸いウェブ上で公開されているので誰でも閲覧可能なのですが、私の拙い読解力ではやはり田方さんが仰るようなことが書いてあるようには読めませんでした。この論文はタイトルにあるようにAIの開発には哲学的な問題が付随すること、記述形式とそれに関連する問題(この中の1つとしてフレーム問題が取り上げられています)、1969年時点での既存の試みなどがレビューされていると思いますが、少なくとも「AIを開発しても時間の無駄」というような否定的なニュアンスは感じられませんでした。もしかしたら、私の見落としかもしれないので、その際は「ここを読め」など、具体的にご指摘いただけるとありがたいです。(ちなみに、洞窟からバッテリーを回収するロボットの話は1984年にデネットがフレーム問題について述べた論文で示した例だと思います)

    >>ただ、バッテリ問題を解決したからといって、そのAIロボットは、人間ができるどんなことでもできるという話にはなりません。つまり、「フレーム問題」が解決したからといって、それが汎用人工知能になるわけではありません。

    これはその通りだと思いますが、「バッテリ問題を解決したら人間ができるどんなことでもできる」と言ったつもりはないですし、「フレーム問題が解決したら汎用人工知能になる」とも言ってないはずです。

    >>そもそも、「フレーム問題」が提案された1969年は、まだ、汎用人工知能という言葉も概念もありませんでしたので、「フレーム問題」と汎用人工知能をつなげて考えるのには無理があります。
    >>まずは、汎用人工知能から特化型人工知能にAI研究が進んでいったとのことですが、真逆ですよ。特化型人工知能から、現在は汎用人工知能を目指して研究が進んでいるのですよ。よく2045年のシンギュラリティと汎用人工知能の実現がほぼ同等の意味で使われます。このことからも、汎用人工知能という言葉が使われだしたのは最近のことといえます。

    これも本当かな?と思ったので、ちょっと調べてみました。
    汎用人工知能は”Artificial General Intelligence (AGI)”の訳語ですが、上述のマッカーシーとヘイズの「SOME PHILOSOPHICAL PROBLEMS FROM THE STANDPOINT OF ARTIFICIAL INTELLIGENCE」の一節に”However, work on artificial intelligence, especially general intelligence, will be improved by a clearer idea of what intelligence is.” (しかしながら、人工の知能、特に汎用的な知能への取り組みは、知能とは何であるかがより明確になることで進歩するだろう)と書かれていることから、1969年の時点で(AGIという用語は存在しないかもしれませんが)、既に現在で言うところの汎用人工知能の概念は存在しており、またそれを目的としてAI研究が進められていたことが十分に想像できました。
    また、AGIとほぼ同義の「強いAI」という用語もありますが、こちらはジョン・サールが「THE MYTH OF THE COMPUTER」(1982)で”We might call this collection of theses “strong artificial intelligence” (strong AI).”と定義しているのが、おそらく用語としての初出かと思われます。
    これらの記述を見るに、確かに汎用人工知能という言葉をよく耳にするようになったのは近年のことかもしれませんが、ずっと以前から現在でいうところの汎用人工知能は研究されてきた(が、現在に到るまで実現はしていない)と言って差し支えないと思うのですが、どうでしょうか。

    ちなみに、人工知能29巻3号の特集「汎用人工知能(AGI)への招待」(2014年5月)に掲載されていたゲーツェルの「汎用人工知能概観」の序説には「人間に比するかそれ以上の汎用知能をもつ考える機械 をつくるという,人工知能の起源にさかのぼる問題を概念化し,研究する最も良い方法はどのようなものだろうか.人工知能分野創始以来60年の間に発展してきた標準的なアプローチでは,人工知能をおおむね個々の能力や個別の実際的課題の追求とみなす.しかし,こうしたアプローチは多くの興味深い技術や理論的な成果をもたらしてきたものの,当初の中心的な目標の実現に関してはどちらかといえば不首尾であった」とありますし、同じ特集に掲載されている松原の「汎用人工知能への期待」にも「人工知能は当初から汎用の知能の仕組みを探求しようとしていた」とありますので、これらの記述を見るに、やはりAI研究は当初、汎用人工知能を目的としていたように思われます。

    >>プログラマーなら、「人間の判断をお手本としてそれをエミュレートさせているだけ」が、どれほど難しいかということかをわかりますので、気軽にこんなコメントは出てきませんので。もし、人間の判断をお手本にしてエミュレートできたとしたら、それこそ、汎用人工知能ですよ。それができないから、みんな悩んでいるのです。

    これは私の言葉の選び方が悪かったと思うので、その点は反省しておりますが、私が言いたかったことをもう一度まとめてみます。
    田方さんは2つ前のレスで、『たしかに僕は、「人間と同じように判断させる」との表現をしていますが、これはヒューリスティクス的に対応するという意味でなく、記事にも書いたように、「爆弾が上に乗ったバッテリを洞窟から取り出す」という問題において、「物理シミュレーションで確認しながら動作を決定する」という手法のことを指しています。これが「人間が頭の中でイメージする」こととほぼ同じなので、「人間と同じように判断させる」との言葉でまとめただけです』と言っておられましたが、これは方法や判断基準をAI自身に考えさせているわけではなく、無意識的に人間が採用している抽象的な方法や判断基準のうち、既にそれなりの理論化・定式化がなされているものについてプログラムに実装しているだけだと思うのです。
    このことを指して「人間の判断をお手本としてそれをエミュレートさせているだけ」と言ったつもりだったのですが、理論化・定式化されていないものまで含めて「人間的な判断を模倣させる」というような、より一般的な意味合いで解釈されてしまったようで申し訳ありません。
    確かにこの言葉だけ切り出してくると、汎用人工知能のことを言っているように聞こえますね。

    >>たしかに、人工知能のヒューリスティックを辞書で調べると、人間の経験などによって正解を導き出すようなプログラム上の工夫というような説明がされていますが、それは、ねこみみさんが思っているような大げさな話ではありません。たとえば、ある解法において、特定の条件でパラメータを変更したりすれば、なぜかうまくいくというような、人間の経験に根差した工夫をヒューリスティックといいます。ハンバーガーを買いに行ったけど、途中でお金を盗られるといった例外が起こった場合の人間の工夫のことは、ヒューリスティックとは決して言いませんので。

    「人間の経験に根差した工夫」がヒューリスティックスなんですね。
    そういう定義があるとは知らなかったです。
    ご教授いただきありがとうございます。
    ちなみに、だとすると、例外的な事象に関して、経験に基づいて適切に対処しようとする場合でもそれはやはりヒューリスティックスと呼べないのでしょうか?

    >>また、第二次AIブームで行っていたのは汎用人工知能と読み取れますが、第二次AIブームで行われたものは汎用人工知能ではないです。それと、エキスパートシステムも、汎用人工知能ではないですよ。

    すみません。最初の文は意味がよくわからないです。
    頑張って読解してみましたが、「第二次AIブームで行っていたのは(一般的には)汎用人工知能と読み取られているけど、実はそうではないよ」ということですか?
    もしそうだとすると、ご指摘いただいて恐縮ですが、私は第二次AIブームで行っていたものが汎用人工知能だとは思っていませんし、そういう発言もしていたつもりは全くなかったです。
    むしろ、エキスパートシステムは特化型人工知能である、という文脈で書いていたつもりです。
    上述したように「人間の判断をお手本としてそれをエミュレートさせているだけ」という言葉が汎用人工知能のことを言っているように聞こえるため、このように読まれたのでしたら大変申し訳ありません。

    >>僕は、大学や研究所に所属したり、誰かに頼まれてお金をもらって研究しているわけではありません。単に、好きでソフトを作っているだけですよ。しかも自分のお金で。だから、論文を書く義務もないですし、論文を書くことにも興味がないので論文は書いていません。ただ、興味ある人に読んでもらおうと思って、自由にブログを書いているだけですので。

    義務で論文を書く人も中にはいるかもしれませんが、一義的には自分の新しい発見など新規性のあることについて、科学的価値を担保し業界内外にアピールするために書くものという認識です。
    興味がないのであれば仕方ないですが、「意識や心の仕組みを解明したロボマインド・プロジェクト」と仰っていたので、これって文字通りの意味ならかなりすごいことだと思うんですよ。
    できれば論文化された方が良いのではないかと思います。
    専門誌以外にarXivもありますし。
    自分のお金でやられているというのは驚きでした。

    • 田方 篤志 田方 篤志 より:

      ねこみみ様

      お返事、ありがとうございます。
      人格否定的なコメントがあったと感じられたとのこと、申し訳ございません。
      おそらく、「ねこみみさんは、AIについて、それほど詳しくないようですね」とか「ねこみみさんは、プログラムというものを自分で作ったことがない」と勝手に想像して書いたことのことを指すものと思います。
      なぜこのようなことを書いたかと言うと、議論する上で、相手の知識レベルを理解しないと適切な議論ができないからです。
      決して、人格を否定しようなどとは、思っていないことをご理解ください。

      おそらく、ねこみみさんは、文系の人間で、コンピュータはあまり詳しくなく、プログラムも書いたことがないと想定して議論を進めたいと思いますが、もし、間違っているようでしたらご指摘ください。

      さて、なぜここまで、ねこみみさんのコンピュータの知識についてこだわるかというと、プログラムの基本的な知識がないと、「フレーム問題」の本質が理解できないからです。
      具体的に説明すると、ねこみみさんは、前回、

      人間の判断をお手本としてそれをエミュレートさせているだけ

      と述べております。
      また、今回は、

      これは方法や判断基準をAI自身に考えさせているわけではなく、無意識的に人間が採用している抽象的な方法や判断基準のうち、既にそれなりの理論化・定式化がなされているものについてプログラムに実装しているだけだと思うのです。

      と述べておられます。
      これらの発言から、どうも、ねこみみさんは、理論化・定式化されているのであれば、プログラムに実装することは可能だと考えているように思えます。
      ですが、この考えは、完全に間違っているのです。

      簡単な例をあげます。
      マクドナルドでは、理論的で定式化されたマニュアルが存在します。
      ですが、マクドナルドの店員がAIに置き換わっていません。
      なぜでしょう?

      それは、理論的で定式化されていることと、コンピュータで実装可能なことは全く関係ないからです。
      おそらく、ねこみみさんの考えるAIとは、マンガやアニメのAIロボットを想定しているのでしょう。
      人間的な感情は持っていないが、言われたことを正確に遂行するようなロボット。

      もし、そんな風に考えているとすれば、それはファンタジーです。
      ただの幻想です。

      AIの本質について深い議論をするつもりなら、コンピュータについて正確で具体的に理解する必要があります。
      コンピュータというものは、計算しかできません。
      足し算、引き算、掛け算、割り算、論理演算、繰り返し、条件分岐、・・・
      そういった計算しかできないことを、まず理解してください。

      人間が頭の中で考えることと、コンピュータが計算することとは、根本的にやっていることが異なります。
      たとえば、コンピュータで方程式を解くことはできますが、人間が中学校で習ったような、式を変形する方法で解くわけではありません。
      ニュートン法というアルゴリズムを使って解きます。
      ニュートン法では、人間には面倒な計算を、何十回、何百回と繰り返し行って解を求めます。
      コンピュータが持つ言葉は、四則演算や、その繰り返し、条件判断だけなので、それらを使って解かないといけないからです。
      人間が解ける問題を、コンピュータの持つ言葉で書き換え、同じ結果を出すことがコンピュータプログラムなのです。

      少し考えればわかると思いますが、四則演算や、繰り返し、条件判断だけでできることは、かなり限られますよね。
      計算問題を解いたり、データをグラフにしたりといったことぐらいですよね。
      これがコンピュータにできることなのです。
      理論的で定式化されていることならコンピュータにできるとは、ファンタジーに過ぎないとは、こういうことなのです。

      こういったことが分かって、初めて「フレーム問題」の意味が理解できます。
      ねこみみさんも、プログラムを勉強してみてください。
      C言語でも、JavaScriptでもいいですから、迷路問題を解くプログラムを自分で書いてみれば、「フレーム問題」の意味がきちんと理解できると思います。
      迷路問題を解くときに使ったアルゴリズムをバッテリ問題に適用すれば、たしかに、AIロボットは動かなくなってしまいます。
      それでは、どうすれば、バッテリを洞窟の外にもちだすことができるのか?
      「フレーム問題」が提示された1969年では無理でも、現在のコンピュータの技術を使えば可能性はあります。
      その一つが、僕が提案するシミュレーションを使った方法というわけです。
      これに対する批判は、現実のコンピュータで実現可能かを、具体的なコンピュータ技術やアルゴリズムで批判しないと意味がありません。

      ところが、ねこみみさんは、僕の提案に対して、

      方法や判断基準をAI自身に考えさせているわけではなく、無意識的に人間が採用している抽象的な方法や判断基準のうち、既にそれなりの理論化・定式化がなされているものについてプログラムに実装しているだけだと思うのです。

      と批判します。
      つまり、AIロボットが自ら考えて行動しないと意味がないというわけです。
      「鉄腕アトム」や「ドラえもん」を作らないと意味がないと批判するわけです。
      ねこみみさんが言ってることは、まさにファンタジーですよね。
      具体的なコンピュータ技術に裏付けされた根拠など全くありません。
      ねこみみさんの想像するコンピュータが存在すると仮定した批判です。
      これでは、議論にならないですよね。
      なので、まずはコンピュータの勉強をして、中身のある批判を試みてください。

      さて、前回の僕のコメントにねこみみさんが反論してますので、そちらにも触れておきましょう。
      まずは、マッカーシーの論文云々の話ですが、「フレーム問題」の本質とは全く関係のない些末な問題であることは、上の説明を読めばわかると思いますので、これ以上のコメントは差し控えさせていただきます。

      汎用人工知能という言葉はいつから使われたかという話も、「フレーム問題」の本質と何の関係のない話ですよね。
      僕の間違いを指摘したいという気持ちは分るのですが、本質と関係のないことを議論するのは時間の無駄だと思いませんか?

      それから、ヒューリスティックについても説明させてください。

      「人間の経験に根差した工夫」がヒューリスティックスなんですね。

      いえ、そういう話しではありません。
      ヒューリスティックとは、たとえば、電圧と温度がリニアの関係にある素子があったとします。
      その素子が、特定の湿度の条件にあるときは、2次関数の関係になるということが経験的にわかったとします。
      経験的にわかるとは、何度も実験を繰り返してデータを取得し、近似関数を導き出してわかったということです。
      ヒューリスティックとは、このように、理屈でなく経験によって補正するといった手法を言います。
      つまり、僕が言いたいのは、実際のコンピュータ科学で使われるヒューリスティックという用語は、特定の条件下で関数を補正するといった小さなレベルの対応を指すということです。
      ハンバーガーを買いに行って強盗に襲われた場合の対応を指して、ヒューリスティックとは決していいません。
      コンピュータ科学を知らない文系の人が、自分の理解できる範囲まで無理やり拡大して使っているように思えますね。

      さて、最後に論文の話です。

      義務で論文を書く人も中にはいるかもしれませんが、一義的には自分の新しい発見など新規性のあることについて、科学的価値を担保し業界内外にアピールするために書くものという認識です。

      親切心から論文を書くことを勧めてくれているとは思うのですが、世の中には、いろんな考えの人があることを理解していただきたいと思います。
      何度も書きますが、僕は、自分が作りたいソフトを作るために開発しているだけでして。
      科学的価値を業界内外にアピールしたいとか、社会のためとか、お金のためとか、人に認められるためとか、あまりそういったことは考えていないもので。
      ただ、自分が面白いと思うソフトを作って、自分を楽しませるために作っているだけでして。

      僕にとって、時間やお金は、全て動くソフトを作るために使いたいと思っています。
      自分の時間を、科学技術発展のために使う余裕などないもので。

      ねこみみさんも、もし、AIに関心があるのでしたら、論文なんか読むより、自分で手を動かしてプログラムを書くことをお勧めしますよ。
      かく言う私も、20年前は、ねこみみさんと同じように考えていました。
      なぜ、人間のようなAIができないのかと。

      プログラムのことはよくわからないけど、こんな風にすれば、人間のように考え、おしゃべりするAIができるのになぁ。
      そんなAIができたら楽しいのになぁと。
      誰も作らないなら自分で作ろうと、プログラムの勉強を始めたわけです。
      コンピュータやAIの勉強をすると、なぜ、できないのかはわかりましたが、僕のアイデアは、誰も試していないこともわかりました。
      それなら、自分で作るしかないし、誰も作ったこともないものを作るのだから、誰に教わるでもなく一人で研究してきました。
      研究するには資金が必要なので、十分な資産も作りました。
      これで、誰に指図されることもなく、自分が作りたいものを、自分のために作ることができます。
      これだけの話です。

      ねこみみさんが、AIについて深く本質的な議論をしたいというなら、いつでもお付き合いしますよ。
      ただ、表面的で中身のない議論はあまり興味がないので、その点だけご了承願います。

  33. ねこみみ より:

    田方さん
    お返事ありがとうございます。
    人格否定というのは言った側も言われた側も、それが人格否定だという認識を持っていないことが多いそうですよ。
    それはさておき、いくつか返答させてください。

    >>おそらく、ねこみみさんは、文系の人間で、コンピュータはあまり詳しくなく、プログラムも書いたことがないと想定して議論を進めたいと思いますが、もし、間違っているようでしたらご指摘ください。

    これは個人的にはわりとどうでもいいかなと思っていたのですが「間違っているようでしたらご指摘ください」ということですので一言指摘させていただきます。
    間違っています。

    >>さて、なぜここまで、ねこみみさんのコンピュータの知識についてこだわるかというと、プログラムの基本的な知識がないと、「フレーム問題」の本質が理解できないからです。

    田方さんが仰るところの「フレーム問題の本質」がどういうものなのか断定できませんが、少なくとも私は最初のレスでそれについて言っていると思います。
    今回仰られたように私がフレーム問題の本質を理解できない(できていない)ならば、最初にレスした時ももちろん理解できていなかったはずですから、その時点でご指摘があっても良かったように思うのですが。
    何故、その時点でご指摘いただけなかったのに、今になって言われるのかがわかりません。

    >>これらの発言から、どうも、ねこみみさんは、理論化・定式化されているのであれば、プログラムに実装することは可能だと考えているように思えます。ですが、この考えは、完全に間違っているのです。簡単な例をあげます。マクドナルドでは、理論的で定式化されたマニュアルが存在します。ですが、マクドナルドの店員がAIに置き換わっていません。なぜでしょう?それは、理論的で定式化されていることと、コンピュータで実装可能なことは全く関係ないからです。

    「理論化・定式化されているのであれば、プログラムに実装することは可能だ」というのは誰の主張でしょうか?
    私は「理論化・定式化がなされているものについてプログラムに実装しているだけ」と言いましたが、「理論化・定式化されているのであれば、プログラムに実装することは可能」とまではさすがに言っていません。
    また、そういう主張をしたいわけでもありません。
    私が言っていないことを「ねこみみの言いたいことはこうだ」と決めつけて、それは間違っていると反論されましても、あまり意味がないのでは?
    ところで、私はマクドナルドでバイトしたことがなく、どういうマニュアルなのか見たこともないので「理論的で定式化されたマニュアルが存在します」と断言されても、本当にそうなのか判断できません。
    そこはまあ仕方ないので、そうだと仮定することにしますが、それにしてもこの例はこの説明のために適切ですか?
    「マクドナルドの店員がAIに置き換わっていない」ことと「理論化・定式化されているのであれば、プログラムに実装することは可能という考えは間違い」という主張の間には結構な論理の飛躍があるように感じますが。

    >>人間が頭の中で考えることと、コンピュータが計算することとは、根本的にやっていることが異なります。たとえば、コンピュータで方程式を解くことはできますが、人間が中学校で習ったような、式を変形する方法で解くわけではありません。ニュートン法というアルゴリズムを使って解きます。ニュートン法では、人間には面倒な計算を、何十回、何百回と繰り返し行って解を求めます。コンピュータが持つ言葉は、四則演算や、その繰り返し、条件判断だけなので、それらを使って解かないといけないからです。人間が解ける問題を、コンピュータの持つ言葉で書き換え、同じ結果を出すことがコンピュータプログラムなのです。

    この例もこの説明のために適切ですか?
    方程式の解法を例に挙げておられますが、4次方程式までは代数的な解法(解の公式)があるので、ニュートン法を使わなくても解くことができますよね。
    当たり前ですが、解の公式は「式を変形する方法」で導かれるものであると同時に、四則演算、繰り返し、条件判断で計算可能なものでもあります。
    それから、一般に5次以上の方程式となると代数的に解けないので、人間が手計算でやるにしてもニュートン法などのアルゴリズムを使うしか良い手がないはずです。
    「人間が頭の中で考えることと、コンピュータが計算することとは、根本的にやっていることが異なります」という主張の例として述べられている割には、人間もコンピュータも根本的に同じことをやっている例のように思われますが。

    >>少し考えればわかると思いますが、四則演算や、繰り返し、条件判断だけでできることは、かなり限られますよね。計算問題を解いたり、データをグラフにしたりといったことぐらいですよね。これがコンピュータにできることなのです。理論的で定式化されていることならコンピュータにできるとは、ファンタジーに過ぎないとは、こういうことなのです。

    これは「かなり限られる」と田方さんは本当に思っていらっしゃいますか?
    もし本当にそう思ってるのでしたら、田方さんは今すぐロボマインド・プロジェクトなんてやめた方が良いと思いますけど…

    >>それでは、どうすれば、バッテリを洞窟の外にもちだすことができるのか?「フレーム問題」が提示された1969年では無理でも、現在のコンピュータの技術を使えば可能性はあります。その一つが、僕が提案するシミュレーションを使った方法というわけです。これに対する批判は、現実のコンピュータで実現可能かを、具体的なコンピュータ技術やアルゴリズムで批判しないと意味がありません。

    この例で重要なことは「どうすれば、バッテリを洞窟の外にもちだすことができるのか?」ということではないと思いますが、田方さんは敢えてそう解釈していらっしゃるのでしょうか?
    私は最初のレスでも言ったと思いますが、フレーム問題の回避(解決ではない)自体は、汎用性を問わなければ必ずしも難しいことではないと思っています。
    この例でも、初号機のR1は(オマケ付きですが)フレーム問題に陥らずにちゃんとバッテリを洞窟の外に持ち出してはいますよね。
    でも、それじゃ現実には(上に爆弾が乗っていたりした場合に)あまり役に立たないよね、という前提でこの例の話は進むわけです。
    逆に、それでも充分役に立つとされるなら、それでいいわけです。
    実際、R1はバッテリに爆弾が仕掛けられたり、突然洞窟の壁が崩れたりなど、想定外の事態がない限りは問題なくバッテリを持ち出して来られるわけですから。
    あと、念のために言っておきますが、田方さんの例示された手法自体を批判したいわけではありません。

    >>つまり、AIロボットが自ら考えて行動しないと意味がないというわけです。「鉄腕アトム」や「ドラえもん」を作らないと意味がないと批判するわけです。ねこみみさんが言ってることは、まさにファンタジーですよね。具体的なコンピュータ技術に裏付けされた根拠など全くありません。ねこみみさんの想像するコンピュータが存在すると仮定した批判です。

    どう読まれたらそのような解釈になるのかわからないのですが、私は「AIロボットが自ら考えて行動しないと意味がない」とは言ってませんし、「鉄腕アトム」や「ドラえもん」(のような汎用人工知能)を作らないと意味がない、とももちろん言っていません。
    上述したように、それで充分役に立つとされるならそれでいいのです。
    最初のレスでも言っていると思いますが、フレーム問題を回避したこととのトレードオフで放置された「想定外」の事態が許容できる(仕方ないと諦めがつく)ものであれば何の問題もないと思います。
    ただ、AIに「人間的な振る舞い」を要求される場合、「想定外」の事態を人間並の水準まで少なくしていけなければ、おそらくそのAIは「役立たず」と世間に認定されるだろうという気はします。

    ところで、これより前の文章で、

    >>おそらく、ねこみみさんの考えるAIとは、マンガやアニメのAIロボットを想定しているのでしょう。人間的な感情は持っていないが、言われたことを正確に遂行するようなロボット。もし、そんな風に考えているとすれば、それはファンタジーです。

    と言っておられましたが、このAIロボット像と「鉄腕アトム」や「ドラえもん」はかなり相反するもののように思います。
    どちらもファンタジーということですが、どちらのAI像を「私の考えるAI像」として想像されていらっしゃるのでしょうか?
    頭が混乱するので、せめて統一していただきたいです。

    >>まずは、マッカーシーの論文云々の話ですが、「フレーム問題」の本質とは全く関係のない些末な問題であることは、上の説明を読めばわかると思いますので、これ以上のコメントは差し控えさせていただきます。汎用人工知能という言葉はいつから使われたかという話も、「フレーム問題」の本質と何の関係のない話ですよね。僕の間違いを指摘したいという気持ちは分るのですが、本質と関係のないことを議論するのは時間の無駄だと思いませんか?

    本質と関係のないことを議論するのは確かに時間の無駄だとは思いますが、これは田方さんが「『フレーム問題』が提案された1969年は、まだ、汎用人工知能という言葉も概念もありませんでしたので、『フレーム問題』と汎用人工知能をつなげて考えるのには無理があります」と仰ったので、調べたことを書きました。
    私は、フレーム問題は汎用人工知能と密接に関係あるという認識でしたし、そういう前提で話をしていたので、それが錯誤でないかどうか確認する意味もありました。

    >>ヒューリスティックとは、たとえば、電圧と温度がリニアの関係にある素子があったとします。その素子が、特定の湿度の条件にあるときは、2次関数の関係になるということが経験的にわかったとします。経験的にわかるとは、何度も実験を繰り返してデータを取得し、近似関数を導き出してわかったということです。ヒューリスティックとは、このように、理屈でなく経験によって補正するといった手法を言います。つまり、僕が言いたいのは、実際のコンピュータ科学で使われるヒューリスティックという用語は、特定の条件下で関数を補正するといった小さなレベルの対応を指すということです。

    なるほど、そういうことなんですね。
    具体的に教えていただきありがとうございます。
    「実際のコンピュータ科学で使われるヒューリスティックという用語は、特定の条件下で関数を補正するといった小さなレベルの対応を指す」ということですが、これは例えば関数パラメーターのチューニングの際に、あらゆる値の組合せを全部試して最適化することは現実的に難しいからヒューリスティックに対処する、という理解で合っているでしょうか?

    >>親切心から論文を書くことを勧めてくれているとは思うのですが、世の中には、いろんな考えの人があることを理解していただきたいと思います。

    もちろん、理解していますし、強制するつもりは全くありません。

    >>科学的価値を業界内外にアピールしたいとか、社会のためとか、お金のためとか、人に認められるためとか、あまりそういったことは考えていないもので。ただ、自分が面白いと思うソフトを作って、自分を楽しませるために作っているだけでして。

    なるほど、田方さんがそういう価値観のもとやってきたということを知らなかったのと、想像もしていなかったです。
    なので論文執筆も勧めてしまいました、すみません。

    • 田方 篤志 田方 篤志 より:

      ねこみみ様

      お返事、ありがとうございます。
      何度もお願いしていますが、ここは、「フレーム問題」について議論する場です。
      ねこみみさんの回答は、「フレーム問題」の本質とは関係なく、ただ単に、田方のコメントの間違いを探すことに終始しているだけとなっています。
      僕は、ねこみみさんがわかりやすいように、たとえを使って説明していますので100%正しいわけではなく、正しくない部分を探せば、いくらでも見つかると思います。
      それをいいことに、「そんなことは言っていない」とか、「たとえが適切でない」とか、重箱の隅をつつくような反論を延々としていては、とても建設的な議論となりません。
      文脈から相手が何を言わんとしているかは読み取れると思いますので、相手の言わんとしていることを読み取って、建設的な議論しましょう。
       

      >>おそらく、ねこみみさんは、文系の人間で、コンピュータはあまり詳しくなく、プログラムも書いたことがないと想定して議論を進めたいと思いますが、もし、間違っているようでしたらご指摘ください。

      これは個人的にはわりとどうでもいいかなと思っていたのですが「間違っているようでしたらご指摘ください」ということですので一言指摘させていただきます。
      間違っています。

      たしかに、文脈を読み取ることはできないようだが、こちらの質問には論理的に正しい返答をしているぞ。

      はは~ん、わかったぞ!
      さては、おまえ、人工知能だな!
       
       
      さて、それでは「フレーム問題」の本質に沿った議論を進めていきましょう。

      「フレーム問題」が言いたいのは、「AIロボットを作ったとしても、バッテリを洞窟から持ち出すことすらできない」ということです。

      フレーム問題はヒューリスティクスで回避すれば良い。
      ただし、必然的に想定外というリスクを許容しなくてはならない。
      このリスクを人間と同等のレベルにまで下げるのが難しかったというのがこれまでのAI史の闇。
      今後、これは達成できるだろうか?(なんとも言えないが、個人的にはわりと悲観視している)

      とのコメントから、ねこみみさんは、個人的に「フレーム問題」は解決できないと思っているようです。

      僕は、ブログ記事にも書いたように、物理シミュレーションなどの現代の技術を使えば可能だと提案をしました。

      これに対し、ねこみみさんは、

      「人間と同じように判断させている」というより、人間の判断をお手本としてそれをエミュレートさせているだけのように思えます。

      とのことで、この方法に否定的な意見を述べています。
      その理由として、

      方法や判断基準をAI自身に考えさせているわけではなく

      とのことです。
      つまり、ねこみみさんは、物理シミュレーションを使って「フレーム問題」を解決するのは、方法や判断基準をAI自身に考えさせてないからダメだと言っているようです。

      以上の解釈で間違いないでしょうか?

      また、「方法や判断基準をAI自身に考えさせる」とは、具体的にどのようになれば、AI自身が考えたといえるのでしょうか?

      「バッテリ問題」を例にして、具体的に説明してください。
      たとえば、前提としてAIが持っている最低限の知識が何で、そこからどうなって、何ができれば、「方法や判断をAI自身が考えた」となるのでしょう?
      また、その中のどの部分が最も重要であるかも教えてください。
      つまり、どの部分があるかないかで、「方法や判断基準をAI自身が考えた」のか、「人間の判断をお手本としてそれをエミュレートさせただけ」となるのかを教えてください。
       
       

      田方さんは今すぐロボマインド・プロジェクトなんてやめた方が良いと思いますけど…

      たしかに、ねこみみのような人工知能が存在するのであれば、これ以上、ロボマインド・プロジェクトを続ける意味はないなぁ。
      文脈が理解できず、人類に反抗的という欠点はあるものの、これほど会話が続くチャットボットが既に開発されていたとは・・・
      あやうく、わしも人間と勘違いして、まともに相手してしまったわい。
      おそるべし、ねこみみ・・・

  34. Karat より:

    田方さんこんにちは。
    以前、別の記事でクオリアについての疑問を何度か質問した者です。お久しぶりです。

    さて、フレーム問題について長々と議論が続いてたのですね…。知りませんでした。
    注文されて人が集まって来るのは良いことだと思います。
    でも、集まって来る方々への注意として
    争い事はやめなはれ(^^;)。

    フレーム問題の議論。ここの書き込みを全て読むのは困難ですけど
    フレーム問題の問題点や解決方法について自分が思うことを書きます。

    そもそも、ロボットの行動を全てプログラムで決めようとするから
    無数の判断や行動を想定するという無理が出てくるのです。
    現状のロボットの原理としては解決出来ません。

    そこで、人間のようにロボットが意識を持っていれば
    自分や世界を認識して判断できるようになるのでフレーム問題は解決となるのです。
    よろしくお願いします。

    • 田方 篤志 田方 篤志 より:

      Karatさん、お久しぶりです。
      心配していただいて、申し訳ないです^^;
      ねこみみさんとの議論は、ようやく論点が絞れてきましたので、これからは、フレーム問題の本質の議論ができると思いますので、楽しみにお待ちください。

      そこで、人間のようにロボットが意識を持っていれば
      自分や世界を認識して判断できるようになるのでフレーム問題は解決となるのです。

      全く、その通りですね。
      意識をもったロボットを目指して、ロボマインド・プロジェクトは邁進してます(^^♪
       

  35. 匿名 より:

    ねこみみさん

    こんな破綻した理論にいちゃもんつけても、きっと無駄ですよ。

    あまりにこの人の言っていることはしょうもなすぎます。それをわかっていて議論なさっているのですよね?

    こうやっておかしな情報を流布していることは正されるべきかもしれませんが、
    きっとあなたの時間をかけるほど価値のあるものではないと思います。

    放っておきましょう。

    ちなみに私は人工知能の開発にも携わっています。素人と批判することは的外れですのでおやめください。

    • 田方 篤志 田方 篤志 より:

      ねこみみさん、匿名さんという素敵な方が応援してくれてますよ♡

      ちなみに私は人工知能の開発にも携わっています。素人と批判することは的外れですのでおやめください。

       
      ちなみに、現在の人工知能開発で、「フレーム問題」が問題になることはありません。
      なぜなら、「フレーム問題」は、現実世界でAIロボットが人間同様に生活する場合に発生する問題で、まだ、人間同様に生活するAIロボットはできていませんので。

      ( ゚д゚)ハッ!
      も、もしかして・・・
      あなたは、タイムマシンで未来からやってきた未来人なのでは!
       

  36. 匿名 より:

    ちなみに田方さん

    爆弾が危険なものだとはどう判別するのでしょうか?

    シミュレーションするには、爆弾がどれくらいの時間で爆発するのか(どれだけ速く行動すべきか判断する)、威力はどれくらいなのか(どれくらい爆弾から距離があればよいか判断する)、そもそも爆発するのか、こういったことがわからないといけませんね。

    これがフレーム問題です。変にいちゃもんつけるだけというのもよくないかと思い、根拠を説明しました。

    • 田方 篤志 田方 篤志 より:

      匿名さん

      コメントありがとうございます。

      爆弾が危険なものだとはどう判別するのでしょうか?

      「フレーム問題」は、人間と同じことをAIロボットができるかを問う問題です。
      人間が目で見て爆弾と判断するのであれば、AIロボットは画像認識で爆弾と判断すればいいと思います。
      人間が、過去の知識から爆弾の威力などを判断するのであれば、同じ知識をAIロボットに持たせればいいと思いますが、いかがでしょう?
       
      も、もしかして・・・
      未来では、「フレーム問題」は、この点が問題となっているのでしょうか?!
      教えてください、未来人さん!
       

  37. 匿名 より:

    おお、返答をいただいているとは。

    う~ん、ご指摘・質問には答えますね。

    >「フレーム問題」は、現実世界でAIロボットが人間同様に生活する場合に発生する問題で、まだ、人間同様に生活するAIロボットはできていませんので。

    現在フレーム問題が問題になっていないのは、
    研究者がフレーム問題に気が付き、汎用人工知能の開発を断念したからです。

    多くの研究者がチャレンジし、諦めてきました。

    あなたがおっしゃっている「人間同様に生活するロボット」など、
    もう誰もまともに考えていないのです。

    >人間が、過去の知識から爆弾の威力などを判断するのであれば、同じ知識をAIロボットに持たせればいいと思いますが、いかがでしょう?

    この「知識を持たせる」ことこそが問題になっているのですよ。
    いったいどれくらいの知識を与えれば「人間同様に生活するAIロボット」が作れるようになるのでしょう?

    仮に爆弾を正しく認識するAIを作ったのならば、そのAIは教えられた範囲の爆弾の認識ならできるようになるかもしれません。では、その爆弾にON/OFFのスイッチがついていたら、正しくOFFにできるでしょうか? 押しボタンだったら? トグルスイッチだったら? タッチパネルだったら?
    爆弾はどこに移動させればよいでしょうか? どれくらいの力で持ち上げればよいでしょうか?

    そういったこともすべて学習させたとしても、持ち出したいものの手前に落とし穴があったら、回避できるのでしょうか? 爆弾の周りにセンサーが敷き詰められていたら、爆弾までたどり着く過程でセンサーに認識しないように移動できるでしょうか?

    教えなければならないことは無限です。学習データは有限です。だから、囲碁だとか、車の認識のように、限定された範囲内でしか網羅的な学習をさせることができません。
    臨機応変に、柔軟に状況に適応した行動をとらせることなど、学習させた範囲、人間が想定した範囲の中でのみ可能なことです。

    この「囲碁」「車」という、「学習させる範囲」これそのものが、「フレーム」と呼ばれるものです。これが汎用人工知能などというものの開発を不可能にしています。

    お分かりいただけましたか。わからなければご質問ください。

    ちなみに捕捉すると、人間の持っている知識や能力(=知性)すら、謎が多いのです。

    牢屋に閉じ込められた人が、檻の外、直接届かないところにカギを見つけたとします。牢屋の中に棒があれば、それを使ってカギを引き寄せることができますよね。

    では、人間はどうやってこれを「思いつく」のでしょうか?

    牢屋の中に、棒のほかに時計とか服とかがあったとしても、人間はちゃんと「棒が役に立つ」と時間をかけずに判断し、適切に行動します。AIがこの状況をシミュレーションしたとして、どれだけの時間をかけてどういう教育をすれば、「棒を使ってカギを引き寄せる」という結論に至れるでしょうか?

    人間の知能すらよくわかっていないのですから、そりゃあ問題も出てきますね。

    今実現されている、もしくは研究者が対象にしているAIは、学習データから統計的・確率的によいものを選び出しているようなものにすぎません。

    もう人間並みの知性を与えることなど、どの研究者もすでに見切りをすでにつけているのです。

    だからこそ実現できたらすごいことなのかもしれませんけどね。

    未来人より

    • 田方 篤志 田方 篤志 より:

      匿名様

      コメント、ありがとうございます。

      現在フレーム問題が問題になっていないのは、
      研究者がフレーム問題に気が付き、汎用人工知能の開発を断念したからです。

      フレーム問題が原因で汎用人工知能を断念したという話は、寡聞にして存じておりません。
      もしよろしければ、出典元をおしえていただけないでしょうか。

      コメント内容全体から、匿名さんは、限られた情報からあらゆる問題を解決できることを「フレーム問題」の解決と考えられておられるように思えます。
      僕も、そのようなことは不可能だと思っています。
      僕が解決できると述べているのは、あくまでも、洞窟から爆弾を取り出す程度の「フレーム問題」についてです。
      人間に簡単にできることなら、AIにも可能という話で、人間にも難しいことはAIにも無理だと思います。

      牢屋に閉じ込められた人が、檻の外、直接届かないところにカギを見つけたとします。牢屋の中に棒があれば、それを使ってカギを引き寄せることができますよね。
      では、人間はどうやってこれを「思いつく」のでしょうか?

      これは、棒のような長い物を使って、カギを引き寄せる場面を見たり、経験したといった知識を持っているから、同じような場面に遭遇した場合、その知識を思い出しているのでしょう。
      そのような知識を持っていない場合は、思いつく人もいるかもしれませんが、思いつかない人も大勢いるでしょう。
      知識がないところから、何かを「思いつく」AIを作るのは、かなり難しいでしょうね。
      そういったAIが作れるとは、僕は思っても書いてもいませんので、その点は、誤解のないようにお願いします。
       

  38. 匿名 より:

    ちょっと失礼な言い方をしたことを後悔しました。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です