終わらない夢に、数学が下した事実
「より大きなモデル、より多くのデータがあれば、AIはいつか真実に到達する」——。
長らくAI業界を支配してきたこの「スケーリング則(Scaling Hypothesis)」という神話が、2025年の終盤、ついに数学的な「証明」によって否定されつつあります。
今年、複数の研究者が独立して同じ結論に到達しました:AIのハルシネーション(幻覚)は、システムのバグではなく、確率論的AIの構造的必然であると。
本記事では、オーストリア・ザンクト・ペルテン応用科学大学(FH St. Pölten)の哲学者Max M. Schlereth氏による『無限選択の壁(The Infinite Choice Barrier)』三部作、ポーランドの研究者Michał P. Karpowicz氏によるarXiv論文、そして2025年のスケーリング則をめぐる業界の激しい論争を縦横に解説します。
🚨 2025年の決定的な3つの「不可能性定理」
2025年は、AIのハルシネーション研究においてパラダイムシフトの年となりました。従来の「もっとデータを集めれば解決する」という楽観論に対し、複数の研究者が数学的な不可能性を証明したのです。
1. Schlereth氏の「無限選択の壁 III」(2025年)
PhilPapersにて公開された本論文は、ライスの定理(Rice’s Theorem)をAIに適用した衝撃作です。
主張の核心:
- P-BOSS(確率的境界意味論システム):現代のLLMをこう定義し、停止性を満たすためには出力空間の「意味的閉鎖(Semantic Closure)」が必要と論証
- 「経験的ゲーデル境界(Empirical Gödel Boundary)」の発見:データの追加が不確実性を減らすのではなく、逆にハルシネーションを増幅させてしまう「限界点」が存在する
- ファットテール環境での発散:現実世界は正規分布ではなく極端な事象が起こる「べき分布」の性質を持つため、AIが排除した「残余部分」に無限の分散が含まれ、期待損失が無限大に発散する可能性がある
Schlereth氏は結論として、「ハルシネーションは切り捨て(Truncation)の数学的な影(Mathematical Shadow)である」と述べ、オープンワールド認知に対するスケーリング仮説の放棄を提言しています。
2. Karpowicz氏の「完全制御不可能定理」(2025年6月)
arXiv 2506.06382として公開されたこの論文は、Green-Laffont定理(ゲーム理論・メカニズムデザイン)を応用し、以下を証明しました:
不可能性定理: いかなるLLM推論メカニズムも、以下の4つの性質を同時に満たすことはできない:
- 真実性(Truthfulness):事実に基づく生成
- 意味情報の保存(Semantic Information Conservation):知識の損失がない
- 関連知識の開示(Relevant Knowledge Revelation):有用な情報を提供する
- 知識制約下の最適性(Knowledge-Constrained Optimality):持っている知識の範囲で最善を尽くす
Karpowicz氏は、LLMの推論プロセスを「アイデアのオークション」としてモデル化。神経コンポーネント(注意ヘッド、回路、活性化パターン)が知識の提供を競い合う構造を分析し、情報集約の数学的構造そのものに不可能性が埋め込まれていることを示しました。
重要な洞察: Karpowicz氏は「ハルシネーションは工学的なバグではなく、分散インテリジェンスの数学的特徴である」と結論づけています。これは、RLHF(人間のフィードバックによる強化学習)やRAG(検索拡張生成)がハルシネーションを減らすことはできても、完全に排除することは原理的に不可能であることを意味します。
3. Xu氏らの「学習理論からのアプローチ」(2024年1月、2025年2月更新)
arXiv 2401.11817で発表されたこの論文は、学習理論の限界からハルシネーションの必然性を証明しました:
- 定義の明確化:形式世界(Formal World)を定義し、ハルシネーションを「計算可能なLLMと計算可能な真理関数の不一致」として定式化
- 学習不可能性:LLMは全ての計算可能関数を学習できないため、汎用問題解決器として使用する限り、必然的にハルシネーションを起こす
- ゲーデル的ハルシネーション:任意のLLMと任意の有限学習データに対し、真だが学習データに含まれない命題が無限に存在する(ゲーデルの不完全性定理の応用)
💡 なぜ「ライスの定理」が重要なのか?
1. 「意味」は計算できない
ライスの定理(1953年)は、簡単に言えば「プログラムの振る舞い(意味的性質)に関する非自明な性質は、アルゴリズムで判定不能である」という定理です。
Schlereth氏はこれを生成AIに応用しました:AIが「真実」や「意味」を理解しているかどうかを、AI自身(あるいは別のプログラム)が完全に検証することは数学的に不可能であることを示唆しています。
これは、「AIが嘘をついているかどうかを自動検出する」というアプローチが、原理的に限界を持つことを意味します。実際、別のarXiv論文(2504.17004)も、ポジティブ例(正しい文)のみで訓練されたハルシネーション検出器は、ほとんどの言語コレクションにおいて理論的に不可能であると証明しています。
2. 「経験的ゲーデル境界」という壁
Schlereth氏の論文で最もスリリングな概念が「経験的ゲーデル境界(Empirical Gödel Boundary)」です。
通常、データが増えれば精度は上がると考えます。しかし、Schlereth氏は「学習データの枠組み(Frame)の外側にある概念」に対しては、AIは「存在論的に盲目(Ontologically Blind)」であると指摘します。
盲目であるにもかかわらず、AIは確率的に「もっともらしい答え」を出力しようとします。その結果、ある閾値(境界)を超えると、「データが増えるほど、AIは自信満々に嘘をつくようになる」というパラドックスが発生します。
これは情報の「切り捨て(Truncation)」によって生じる数学的な影(Mathematical Shadow)であり、単なる工学的改善では解決できません。
3. Appleの実証研究が裏付けた理論的予測
注目すべきことに、2025年6月にAppleの研究チーム(Shojaee et al.)が発表した論文「The Illusion of Thinking」は、Schlereth氏の理論的予測を実証的に裏付けました。
Claude 3.7 Sonnet、DeepSeek-R1などの最先端推論モデルが、タスクの複雑さが増すにつれて推論努力と精度が崩壊する現象を報告しています。十分な推論予算があるにもかかわらず、です。
この現象は、Schlereth氏の論文第6章・第7章で予測された「ファットテール決定空間におけるエントロピー発散」および「深いモデルアーキテクチャによる不安定性の増大」と一致しています。
📊 2025年のスケーリング則論争
ハルシネーションの理論的限界と並行して、AI業界では「スケーリング則は壁に当たったのか?」という激しい論争が繰り広げられています。
悲観派の主張
2024年後半の報道:
- BloombergやThe Informationが「OpenAI、Google、Anthropicが次世代モデルで期待外れの結果」と報道
- OpenAIの次世代モデル「Orion」がコーディングタスクで期待を下回る
- GoogleのGemini更新版が社内目標に届かず
- AnthropicのClaude 3.5 Opusがリリース延期
Ilya Sutskeverの発言(2025年11月):
OpenAI共同創業者でSSI(Safe Superintelligence Inc.)CEOのIlya Sutskever氏は、ポッドキャストで「AIはスケーリングの時代から研究の時代へ移行した」と宣言。
彼の論拠:
- 事前学習データは有限である
- スケーリングは収穫逓減に直面している
- モデルは人間に比べて劇的に汎化性が低い(「very fundamental thing」)
楽観派の反論
Sam Altman(OpenAI CEO): 「壁など存在しない(there is no wall)」とツイート
業界の投資動向が語る真実:
- OpenAI:2025-2035年に$1.09兆ドルのコンピュートインフラ投資を約束
- Amazon、Microsoft、Google、Meta:2025年だけで$3,600億ドルのCapEx(47%増)
- Stargate Project:4年間で$5,000億ドル
- 合計:2030年までに確定したAIインフラ投資額は$7.8兆ドル
これは「スケーリングが終わった」と信じる業界の振る舞いではありません。
Gemini 3が示した「スケーリングは生きている」
2025年11月のGoogle Gemini 3リリースは、楽観派に大きな追い風となりました。
- 5兆パラメータのMoE(Mixture-of-Experts)と推測される構成
- コミュニティリーダーボードでトップに返り咲き
- 「数ヶ月ぶりに本物の能力ジャンプ」との評価
多くの観察者が「スケーリングの壁は蜃気楼だった」と主張し始めています。プレトレーニングが止まったように見えたのは、一時的な高原(plateau)に過ぎず、MoEアーキテクチャと改善されたハードウェアによって再び前進し始めたというわけです。
「Inverse Scaling」現象の発見
しかし、話はそう単純ではありません。Anthropicの研究チーム(2025年)は、「推論時計算を増やすと逆に精度が落ちる」という「Inverse Scaling」現象を報告しました。
- 簡単な数え上げタスクに気を散らすものを加えると、長く考えるほど間違える
- Zebra論理パズルでも同様の傾向
- Claude Sonnet 3.7、Opus 4、DeepSeek R1、Qwen3 32Bなどで確認
Wu氏ら(2025年)の研究でも、「推論時計算が増えると、ロバスト性(頑健性)が一貫して低下する」ことが示されました。プロンプトインジェクションやプロンプト抽出攻撃への脆弱性が増すのです。
つまり、「大きければ大きいほど良い」という単純な法則は崩れつつあるのです。
ポスト・スケーリング時代の技術
Schlereth氏が示唆する「確率論(Probabilism)に頼らない新しい認知アーキテクチャ」への転換——その具体例が、2025年5月に登場したDarwin Gödel Machine(DGM)です。
ゲーデルマシンとは何か?
Jürgen Schmidhuber氏(LSTMの発明者)が2003年に提唱した理論的概念で、「数学的に改善が証明できる場合のみ、自分自身のコードを書き換える自己改善型AI」です。
従来の実装困難性(形式的証明の計算コスト)を、進化論的アプローチで回避したのがDGMです。
Darwin Gödel Machine(Sakana AI × UBC、2025年5月)
主な特徴:
- オープンエンド進化:エージェントが自らのコードを書き換え、自己改善能力そのものを向上させる
- アーカイブベース探索:多様なエージェント設計を保存し、行き詰まりを回避
- SWE-benchで驚異的な改善:初期20% → 80回の進化後50%(オープンソーストップに匹敵)
- Polyglotベンチマーク:14.2% → 30.7%
DGMは、「スケーリング則」に頼らず、「自己改善アルゴリズムの探索」という全く異なるパスで性能向上を実現しました。
Huxley-Gödel Machine(2025年10月)
さらに洗練されたアプローチとして、Clade-level Metaproductivity(CMP)を導入した実装も登場しています。単にベンチマークスコアが高いエージェントを選ぶのではなく、「有望な子孫を生み出す能力(メタ生産性)」を評価する進化的アプローチです。
あなたは「コード」を増やしたいのか、「知性」を生み出したいのか?
2025年は、AIのハルシネーション研究において「終わりの始まり」と「新しい始まり」が交錯した年として記憶されるでしょう。
📚 出典・引用
主要論文
- Schlereth, M. M. (2025). “The Infinite Choice Barrier III – When Rice Returns, and Why Probabilism Won’t Save Us”. PhilPapers. https://philpapers.org/rec/SCHTIC-17
- Karpowicz, M. P. (2025). “On the Fundamental Impossibility of Hallucination Control in Large Language Models”. arXiv:2506.06382. https://arxiv.org/abs/2506.06382
- Xu, Z. et al. (2024/2025). “Hallucination is Inevitable: An Innate Limitation of Large Language Models”. arXiv:2401.11817. https://arxiv.org/abs/2401.11817
- Shojaee, P. et al. (Apple, 2025). “The Illusion of Thinking” (Referenced in Schlereth’s work)
- Zhang, J. et al. (2025). “Darwin Gödel Machine: Open-Ended Evolution of Self-Improving Agents”. arXiv:2505.22954. https://arxiv.org/abs/2505.22954
