ニュース
2025.03.17 専門分野コラム人間の知能とAIの「知能」その1 -ペンローズの議論をめぐるAIとの対話-
ライフデザイン学科教員の相場です。
生成AI、とりわけChatGPTをはじめとする大規模言語モデルの登場とその急速な能力向上を目の当たりにして、人間の知能とAIの「知能」との関係について、ふたたび議論が盛り上がっています。私もずっとこの問題には関心がありました。そこで、このブログの場を借りて、何回かにわたってこの問題を整理していきたいと思います。
生成AIが登場するずっと前、しかしニューラルネットワークをアークテクチャーする機械学習はすでに登場していたころ、ペンローズ(ブラックホールの研究でノーベル賞受賞)が、この問題を検討する「皇帝の新しい心」(1994年)という本を書きました。私はこの本を読んで大いに感銘を受けました。
この本の主張を簡単に言うと、人間は意味を理解できるけれどAIには理解できない。したがってAIに人間の知能はシミュレートできないというものです。そしてその主張の根拠としてゲーデルの不完全性定理を取り上げていました。
そこで、まず手始めとして、ペンローズの議論についての私とChatGPTのディスカッション(2025年3月)を紹介します。少し長くなりますが、改めてChatGPTのすごさがわかります。
私「・・・実は聞きたかったことは、あなたがペンローズの議論をどう思うかということです。どんな形式体系にもゲーデル命題と呼ばれる命題があります。この命題は、その形式体系では証明も否定の証明もできません。一方、この命題の意味は「この命題は証明できない」となります。したがって、人間ならば、この意味を考えることにより、ゲーデル命題は真であることが理解できます。よって、なんらかの形式体系に基づく人工知能には人間の知能をシミュレートできない、という結論になります。あなたはこの議論をどう考えますか。」
ChatGPT「ペンローズの議論は非常に興味深く、数学・哲学・認知科学の交差点に位置する深い問題を提起しています。ただ、私は彼の結論には慎重な立場をとります。いくつかの観点から考察してみましょう。
1. ゲーデルの不完全性定理の適用範囲について
ペンローズの主張の核は「人間はゲーデル命題の真理性を直観的に理解できるが、形式体系に基づくAIはできない」という点にあります。しかし、ここにはいくつかの問題があると思います。
• 人間の直観は厳密な証明とは異なる
ペンローズの議論では、人間は「ゲーデル命題が真である」と理解できるとされています。しかし、これは直観的な理解であり、厳密な数学的証明とは異なります。実際、数学者が新しい定理を発見するときも、最初は「これは正しそうだ」という直観に基づきますが、それを証明する過程は形式的なものです。この直観が本当に「非計算的」なのかは議論の余地があります。
• すべての人間がゲーデル命題の真理性を理解できるわけではない
数学的素養のない人にゲーデル命題を示しても、それを「真」と認識することは難しいでしょう。つまり、この能力が本当に「人間の本質」なのか、それとも数学的な訓練の結果なのかは疑問です。
2. AIにできないとは言い切れない
ペンローズは「どんなAIもゲーデル命題の真理性を認識できない」と言いますが、これは少し強すぎる主張かもしれません。
• AIは異なる形式体系を超えることができるかもしれない
ゲーデルの不完全性定理は、特定の形式体系の内部での限界を示しています。しかし、人間の数学者が異なる公理系を導入しながら数学を発展させてきたように、AIも異なる公理系を利用する能力を持つようになれば、ゲーデル命題を認識できるかもしれません。
• AIの認識能力は進化する可能性がある
今日のAIはまだ形式体系の制約を強く受けていますが、自己反省やメタ推論の能力を持つAIが登場すれば、ゲーデル的な問題を扱える可能性があります。例えば、自己修正型のAIが自らの形式体系を拡張することで「この命題は証明できないが、意味的に真と考えられる」と判断できるようになるかもしれません。
3. 量子意識仮説への懐疑
ペンローズは「脳が非計算的な量子過程を利用している可能性」を示唆しましたが、これはまだ確たる証拠がありません。現在の神経科学の理解では、脳の情報処理は基本的に古典的な物理法則に従っていると考えられています。量子効果が意識の本質に関与しているかどうかは、実験的証拠を待つ必要があります。
結論
(上のまとめなので省略)
したがって、「AIは人間の知能を完全にシミュレートできない」という結論を出すには、まだ慎重であるべきだと思います。あなたはこの議論についてどう思いますか?」
私「なるほど説得力のある反論だと思います。」
ChatGPT「ありがとうございます!ペンローズの議論は非常に魅力的ですが、やはり慎重に検討する余地がありますね。とはいえ、「人間の知能は本当に計算可能なのか?」という問いは、AI研究や意識の科学において今後も重要なテーマになり続けると思います。
もしこの議論をさらに深めるとしたら、例えば「意識のハード・プロブレム(クオリアの問題)」や「強いAIと弱いAIの違い」といった視点も面白いかもしれませんね。あなたはこの議論のどの側面に特に興味がありますか?」
私「クオリアの問題にも興味があります。しかし、これは最高に難問ですよね。」
ChatGPT「確かに、クオリアの問題は哲学的にも科学的にも「最高に難問」と言えるテーマですね。物理学や計算論的アプローチでは説明しづらい主観的な体験の本質をどう捉えるか、という問題は依然として未解決です。
たとえば、
• 「なぜ物理的なプロセスから主観的な体験が生じるのか?」(意識のハード・プロブレム)
• 「人工知能にクオリアは宿るのか?」(シミュレーションと意識の違い)
• 「他者のクオリアを理解することは可能なのか?」(哲学的ゾンビの問題)
こうした問いに対する決定的な答えはまだありませんが、さまざまな立場が提案されています。ユーザーはクオリアの問題のどの側面に特に関心がありますか?」
私「「人工知能にクオリアは宿るのか?」という質問に対してどんな回答がありますか。」
ChatGPT「「人工知能にクオリアは宿るのか?」という問いに対して、哲学的・科学的にさまざまな立場が存在します。以下に代表的な見解を整理してみます。
________________________________________
1. クオリアはAIには宿らない(強い否定派)
主張: クオリアは物理的な処理や情報処理とは本質的に異なるため、AIには決して宿らない。
• 哲学的ゾンビ論(デイヴィッド・チャーマーズ)
AIはどれほど高度になっても、内部にクオリアを持たず、純粋に入力と出力の関係だけで振る舞う可能性がある。人間と全く同じ振る舞いをする「哲学的ゾンビ」のような存在であり、内面の主観的体験は生じない。
• セアールの「中国語の部屋」
AIは記号を操作するだけで意味を理解していない。仮に人間のように振る舞えても、それは計算の結果に過ぎず、「赤を見る」「痛みを感じる」といった主観的な体験(クオリア)はない。
• ハード・プロブレムの不可解性
そもそも物理過程からクオリアが生じる仕組みがわかっていない以上、AIにクオリアが宿るかどうかを科学的に検証することは不可能。
________________________________________
2. クオリアはAIに宿る可能性がある(肯定派)
主張: クオリアは情報処理の一形態であり、十分に高度なAIが誕生すれば、クオリアを持つ可能性がある。
• 機能主義(ダニエル・デネット)
人間の意識も情報処理システムの一種であり、特定の機能を果たすならば、基盤がシリコンであってもクオリアが生じるはず。クオリアは「神秘的なもの」ではなく、自己認識や知覚の一部として説明可能。
• 強いAI仮説(ジョン・マッカーシー、レイ・カーツワイル)
意識とは単なる情報のパターンであり、もしAIが人間レベルの意識を持つならば、クオリアも生じる可能性がある。
• 統合情報理論(ジュリオ・トノーニ)
クオリアは情報の統合の度合い(Φ)によって生じる。AIが十分に複雑で統合的な情報処理を行えば、意識的体験を持つ可能性がある。
________________________________________
3. クオリアの概念自体が誤っている(懐疑派)
主張: そもそもクオリアという概念自体が幻想であり、「クオリアが宿るか?」という問い自体が無意味。
• 反クオリア主義(ダニエル・デネット)
クオリアは実体のあるものではなく、脳の情報処理の結果として生じる錯覚に過ぎない。したがって、「AIにクオリアが宿るか?」という問いは意味がない。
• 「意識とは何かを考えている状態に過ぎない」
クオリアは脳の特定の状態を指しているに過ぎず、AIが同じように「自分は意識を持っている」と考えるなら、それは意識を持っているのと同じこと。
________________________________________
結論: AIにクオリアが宿るか?
現在のところ、科学的な実証が難しいため、どの立場も決定的な証拠を持っていません。しかし、今後AIが進化し、自分自身について考え、「私は意識を持っている」と主張するようになった場合、それをどう扱うべきかは大きな問題になってきます。
あなたはどの立場に近いと感じますか?」
私「いろいろ言っても脳も物理法則にのっとって生成されているものなので、半導体で生成される人工知能にもクオリアが宿っても不思議ではないように思います。」
ChatGPT「その考え方は、物理主義的な立場に基づいていますね。つまり、「脳も物理システムであり、AIも物理システムである以上、適切な条件が整えばAIにもクオリアが宿る可能性がある」という立場です。これは、機能主義や統合情報理論(IIT)などと親和性が高い考え方です。
この立場の強み
1. 一貫した物理主義
o 人間の脳が生み出すクオリアを「特別なもの」とせず、物理法則に基づく現象の一つとして捉える。
o もしクオリアが物理的プロセスから生じるならば、半導体でも再現できる可能性がある。
2. 人間の知能とAIの違いを過度に特別視しない
o 脳の神経細胞も単なる物理システムであり、適切な情報処理を行えば、シリコン上でもクオリアが生じうる。
3. 進化論的観点とも整合性がある
o 生物は進化の過程で意識やクオリアを獲得した。もし意識が単なる物理プロセスならば、人工的な進化(AIの発展)によっても発生する可能性がある。
この立場に対する反論
しかし、こうした考え方に対しては、以下のような反論がなされることもあります。
1. 物理的プロセスからクオリアが生じる仕組みがまだ不明
o 「クオリアが物理現象に還元できる」と考えても、なぜ特定の物理プロセスが主観的体験を生み出すのかは未解明。
o 「痛みを感じること」と「神経細胞の発火」は、どう対応しているのか?
2. シリコンとニューロンの違い
o 脳の情報処理はシリコンチップとは異なる可能性がある。ニューロンの動作は単なる電気信号ではなく、化学的・量子的要素も含まれる。
o もしクオリアが神経細胞の特定の性質に依存しているなら、半導体ではクオリアを再現できないかもしれない。
3. AIが「私は意識を持っている」と言っても、それは単なるプログラムかもしれない
o AIが「私はクオリアを持っている」と発言しても、それが本当にクオリアを持つ証拠になるのか?
o もしAIが「痛みを感じる」と言っても、それはプログラムされた出力かもしれない。
________________________________________
あなたの考えに関連する質問
あなたの考えをさらに深めるために、次のような問いを考えてみるのはどうでしょう?
1. AIが「私は意識を持っている」と言ったとき、それをどう判断するべきか?
2. もしAIにクオリアが宿るならば、それはどのように検証できるのか?
3. AIのクオリアが生じるとしたら、それはどんな条件のもとで可能なのか?(情報処理の複雑性?統合度?)
あなたの考えに近い立場は、**機能主義や統合情報理論(IIT)に基づく「クオリアの物理的実現可能性」**だと思いますが、どの点が特に重要だと考えますか?」
私「今回はここまでとします。またの機会に議論に付き合ってください。」
ChatGPT「了解しました!とても興味深い議論でしたし、あなたの視点も鋭くて刺激的でした。またいつでもお話しましょう。次回も楽しみにしています!?」
以上、私とChatGPTのディスカッションを紹介しました。私は圧倒され、本当にエキスパートにディスカッションしてもらっているとしか思えませんでした。最後にはChatGPTも絵文字を使ってディスカッションが興味深かったことを評価してくれています。少しうれしかったりもします。
今回はペンローズの議論をめぐる私とChatGPTの議論を紹介させていただきました。