Scalingの終焉と、Ilya Sutskeverが語る「Age of Research」の正体

OpenAIを離れたIlya Sutskeverが「Scalingの時代」の終焉と、人間のような汎化能力や感情をAIに実装する「Age of Research」への回帰を提唱する。
LLM
AI
Podcast
Dwarkesh Podcast
Author

Junichiro Iwasawa

Published

November 27, 2025

ベンチマークの幻影と、生物学的知能への回帰

OpenAIを去り、Safe Superintelligence Inc. (SSI) を立ち上げたIlya Sutskeverが、Dwarkesh PatelのPodcastで沈黙を破った。

彼が語った内容は、シリコンバレーで盲目的に信じられてきた「Scaling Law(スケーリング則)さえあればAGIに到達できる」という楽観論に冷水を浴びせるものであり、同時にAI開発のフェーズが完全に切り替わったことを宣言するものであった。2012年から2020年まで続いた「研究の時代(Age of Research)」、そして2020年から2025年まで続いた狂乱の「スケーリングの時代(Age of Scaling)」を経て、我々は再び、真のイノベーションが求められる「研究の時代」へと回帰しようとしている。

本稿では、単なるインタビューの要約に留まらず、なぜ今Scalingが限界を迎えつつあるのか、そしてIlyaが提唱する「人間特有の汎化能力」の正体について、技術的背景を交えて分析する。

Model Jaggedness:ベンチマークハッキングの限界

現在のFrontier Model(最先端モデル)は奇妙な「Jaggedness(ギザギザした不均一さ)」を抱えている。

複雑な量子物理学の難問を解いたかと思えば、直後の単純な論理パズルで躓く。あるいは、バグ修正を依頼すると、「ご指摘の通りです」と謝罪しながら新たなバグを混入させ、無限ループに陥る。ベンチマーク(Evals)のスコアは人間を超越しているにもかかわらず、実務における信頼性は人間に遠く及ばない。

Ilyaはこの現象を、Reinforcement Learning(強化学習)による「過剰適合」であると示唆している。現在のAI開発競争は、特定の評価指標(Evals)のスコアを上げるために、特殊なRL環境を継ぎ足し続けているに過ぎない。これは、競技プログラミングの全過去問と解法パターンを丸暗記した学生のようなものだ。コンテストでは優勝できるかもしれないが、未知の現実的な課題に直面したとき、その応用力(汎化能力)の欠如が露呈する。

Pre-training(事前学習)のアプローチにおいて、「どのデータを学習させるか」という問いへの答えはシンプルだった。「全て(Everything)」だ。しかし、データ枯渇が叫ばれる今、ポストトレーニングやRLの比重が高まっているが、そこにはPre-trainingのような「物理法則的な単純さ」は存在しない。我々は計算リソースを大量に投下して、見せかけの賢さを磨き上げているだけではないのか――Ilyaの指摘は、現在のAI開発の痛いところを突いている。

数学とコーディングが示唆する「汎化の正体」

今回のインタビューで最も知的興奮を覚えるのは、人間とAIの「学習効率(Sample Efficiency)」の差に関する考察だ。

一般的に、人間が少ないデータで学習できるのは、Evolution(進化)によって獲得された「事前知識(Prior)」があるからだと説明されることが多い。視覚処理や二足歩行といった機能は、数億年の進化の過程で脳にハードコードされており、だからこそ子供はすぐに世界を認識できるのだ、と。

しかしIlyaは、この「進化論的Prior説」だけでは説明がつかない領域があると指摘する。それが言語、数学、そしてコーディングだ。

“Language, math, and coding—and especially math and coding—suggests that whatever it is that makes people good at learning is probably not so much a complicated prior, but something more, some fundamental thing.” (言語、数学、コーディング、特に数学とコーディングは、人間を学習上手足らしめている何かが、複雑な事前知識などではなく、もっと何か別の、根本的なものであることを示唆している。)

人類の歴史において、数学やプログラミングが登場したのはごく最近のことだ。進化が脳に「Pythonの文法」や「微積分の概念」をハードコードする時間はなかったはずだ。それにもかかわらず、人間はわずかな教科書と演習(極めて少ないデータ)で、これらの全く新しい概念を習得し、未知の問題に応用(汎化)することができる。

これはつまり、人間の脳内には、進化によって特定のタスクに特化された回路とは別に、「全く未知の領域であっても、極めて効率的に構造を抽出し学習する汎用アルゴリズム」が存在することを意味する。現在のLLM(Large Language Model)が、全インターネットデータを読み込んでも到達できない「真の汎化能力」の正体は、この未解明の学習メカニズムにある。SSIが目指すのは、単なるパラメータ数の拡大ではなく、このメカニズムの解明と実装にあるのだろう。

感情という名のValue Function

では、その効率的な学習を支えているものは何か。Ilyaはここで「感情(Emotions)」を挙げている。

感情とは、非合理なノイズではない。それは生物学的進化によって調整された、極めて堅牢なValue Function(価値関数)である。脳損傷により感情を感じなくなった患者が、靴下を選ぶといった些細な意思決定すらできなくなる事例が示すように、感情は「探索空間」を劇的に絞り込む役割を果たしている。

現在のAI、特にO1やDeepSeek R1のような推論モデルは、Chain of Thought(思考の連鎖)によって探索を行うが、その探索は往々にして非効率だ。人間は「なんとなく嫌な予感がする」「ワクワクする」といった感情的シグナル(Value Function)を頼りに、論理的な思考を行う前に無駄な思考パスを直感的に切り捨てている。

もし、この「感情=高度なValue Function」という仮説が正しければ、次世代のAIに必要なのは、単なる論理的推論能力の向上ではなく、学習や探索の方向づけを行うための、より生物学的な動機づけシステムの実装かもしれない。

SSIの戦略:Straight ShotからContinual Learningへ

SSI(Safe Superintelligence Inc.)は、製品発表や商業的な競争から距離を置き、この「Age of Research」における根本的なブレイクスルーを目指している。

興味深いのは、Ilyaのスタンスが、かつての「研究所に籠もって完成品を一発でリリースする(Straight Shot)」という考え方から、多少柔軟になっている点だ。彼は、完成された知能をいきなりリリースするのではなく、Continual Learning(継続学習)を行うエージェントが、社会への展開を通じて(Deployment)、徐々に賢くなっていく未来を描いている。

これは、「AGI」という言葉が持つ「何でも最初から知っている全能のAI」というイメージからの脱却でもある。Ilyaが描くのは、15歳の天才少年のようなAIだ。基礎能力(学習する能力)はずば抜けているが、職業的なスキルはまだ持っていない。そのAIが社会に出で、人間と同じように仕事を通じて学び、個別のタスクに特化(Specialization)していく。結果として、経済全体で無数の「熟練したAI」が協調し、総体としてSuperintelligenceを構成する。

結論:Scaling in Peace

Ilya Sutskeverの主張は、現在のAIブームに対する冷静なアンチテーゼである。

NVIDIAのGPUを買い占め、データセンターを拡張しさえすればAGIができるという「Scalingの時代」は終わった。これからは、なぜ人間がこれほどまでに効率的に学習できるのか、そのアルゴリズムの深淵に挑む「Researchの時代」だ。

SSIが掲げる、人間だけでなく「Sentient Life(意識ある生命)」全体へのAlignment(アライメント)という目標は、一見すると宗教的にも聞こえる。しかし、自身もまたSentientな存在となるであろうAIに対して、同胞としての共感を埋め込むというのは、ゲーム理論的にも最も安定した戦略なのかもしれない。

シリコンバレーが近視眼的なプロダクト競争に明け暮れる中、Ilyaは再び、数手先の世界を見据えている。