GoogleのTPUv7 “Ironwood”が、ついに外の世界へ解き放たれようとしている。
これまでGoogleのTPU(Tensor Processing Unit)といえば、検索エンジンやYouTube、そして最近ではGeminiを動かすための「門外不出の秘伝のタレ」であり、Google Cloud (GCP) 経由でレンタルするしか触れる術はなかった。しかし、その潮目が完全に変わった。Googleは今、TPUを単なるクラウドサービスの一部としてではなく、NvidiaのGPUに真っ向から喧嘩を売る「マーチャント・シリコン(外販チップ)」として市場に投入し始めている。
SemiAnalysisのレポートによると、AnthropicがTPUv7を大量導入するという。その規模は驚くべきことに100万チップ以上、電力にして1GWを超えるとも言われている。もはや「ちょっと試してみる」レベルの話ではない。これは、AIハードウェア市場における「Nvidia一強体制」への明確な挑戦状であり、AIインフラのコスト構造を根底から覆す可能性を秘めている。
今回は、このGoogleの大胆な一手と、それが引き起こすであろうAIハードウェア戦争の行方を、技術的スペックとビジネス戦略の両面から斜めに切っていく。
TPUv7 “Ironwood”:スペック競争からTCO戦争へ
TPUv7、コードネーム「Ironwood」の最大の売りは、絶対的な性能もさることながら、その圧倒的な「コスト対効果(TCO)」にある。
カタログスペックだけを見れば、NvidiaのBlackwell(GB200など)の方が、ピーク性能やメモリ帯域幅において依然として王者の貫禄を見せている。しかし、AIの学習や推論において重要なのは「理論上の最大値」ではなく、「実際にどれだけ回るか(実効性能)」と「そのためにいくら払うか」だ。
ここにおいてGoogleの主張は強烈だ。Google内部の視点で見れば、TPUv7のチップあたりのTCOは、NvidiaのGB200サーバーと比較して約44%も低いという。外部顧客(Anthropicなど)への提供価格を考慮しても、GB200システムより最大30%ほど安くなると試算されている。
この「30%安い」という事実は、強烈なバーゲニング・パワーを持つ。実際、OpenAIはまだTPUを本格稼働させていないにもかかわらず、「Googleに乗り換えるぞ」というカードをチラつかせることで、Nvidiaからハードウェア調達コストを約30%値引きさせることに成功したという噂まである。Nvidiaの独占市場において、これほどの値下げ圧力をかけられる存在はGoogle以外にあり得ない。TPUはスイッチを入れる前から、既に「存在すること」だけでROIを生み出しているわけだ。
Anthropicとの「1GW」契約の正体
AnthropicとGoogleの契約は、単なるクラウド利用契約の枠を超えている。報道によれば、AnthropicはTPUv7をGCP経由でリースするだけでなく、その一部(約40万基)を直接購入する契約を結んでいるという。これはGoogleがAWSやAzureのような「クラウドベンダー」としてではなく、Nvidiaのような「チップベンダー」として振る舞い始めたことを意味する。
Anthropicにとって、Nvidiaへの依存度を下げることは経営上の至上命題だ。サプライチェーンのリスクヘッジはもちろん、前述の通りコスト競争力を高めるためにも、TPUという選択肢は魅力的すぎる。Claude 4.5 OpusやGemini 3といった最先端モデルが既にTPU上でバリバリに学習されている実績も、この決断を後押ししただろう。
また、この取引にはFluidstackのような「Neocloud」プロバイダーや、TeraWulfのようなビットコインマイニング事業者がインフラパートナーとして噛んでいる点も興味深い。電力不足に悩むAIデータセンター業界において、Googleはマイナーが持つ電力インフラを巧みに取り込み、TPUのデプロイ速度を加速させようとしている。
システムアーキテクチャ:MicroarchitectureよりSystem
「システムはマイクロアーキテクチャに勝る」。これはGoogleが長年提唱してきた設計思想だが、TPUv7においてその真価が発揮されている。
TPUの真骨頂は、チップ単体の性能よりも、それらを繋ぐインターコネクト技術「ICI (Inter-Chip Interconnect)」にある。TPUv7では、独自の3Dトーラス構成と光回線スイッチ(OCS: Optical Circuit Switches)を組み合わせることで、最大9,216チップという途方もない規模のクラスターを構築可能にしている。
NvidiaのNVLinkも強力だが、GoogleのOCSアプローチは、光ファイバーの接続先を物理的に切り替えることで、障害が発生した区画をバイパスしたり、ワークロードに応じてトポロジー(接続形状)を柔軟に変更したりできる点で一日の長がある。まるで巨大な列車の操車場のように、光の信号を自在に操り、数千、数万のチップを一糸乱れぬ統制下で動作させる。このスケールアップ能力こそが、Geminiのような超巨大モデルの学習を支えている秘密兵器だ。
ソフトウェア:PyTorchへの「改宗」と未完のパズル
ハードウェアがどれだけ優秀でも、使いにくければただのシリコンの塊である。Googleはこの点を痛いほど理解しており、長年の課題であった「ソフトウェア・エコシステム」の改善に猛進している。
これまでのTPUは「JAX/XLA」というGoogle独自の流儀を強要する傾向があり、これが外部開発者(特にPyTorchユーザー)にとって高い参入障壁となっていた。しかし、ここに来てGoogleは態度を軟化させ、「Native PyTorch」のサポートに本腰を入れている。MetaがPyTorchを好むこともあり、torch.compileや分散APIへのネイティブ対応を進めることで、NvidiaのCUDAエコシステムからの移民を受け入れやすくする狙いだ。
さらに、推論ライブラリとして覇権を握りつつあるvLLMへの貢献も加速している。vLLMのTPUバックエンドを整備し、PagedAttentionやMoE(Mixture of Experts)の最適化カーネルを提供することで、推論コストの削減をアピールしている。
しかし、手放しで賞賛するのはまだ早い。XLAコンパイラやランタイム、ネットワーキングライブラリの核心部分は依然としてブラックボックスな部分が多く、オープンソース化が不十分だという批判は根強い。デバッグのしにくさは開発者の生産性を直撃する。LinuxやPyTorchがオープンソース化によって爆発的に普及した歴史を鑑みれば、Googleが真にNvidiaの堀を埋めたいなら、これらの「秘伝のタレ」をもっと惜しげもなく公開する必要があるだろう。
Nvidiaの「独占」の終わりとなるか
GoogleのTPUv7外販戦略は、Nvidiaにとって「頭の痛い問題」どころか、明確な実害を伴う脅威となりつつある。
もちろん、CUDAという強力な堀は一朝一夕には埋まらない。多くのAIスタートアップや研究者にとって、Nvidia GPUは依然として「デフォルト」の選択肢であり続けるだろう。しかし、AnthropicやMetaのようなハイパースケーラー、あるいは資金力のあるAIラボにとって、TPUはもはや「実験的な代替品」ではなく、「経済合理性のある本命」になりつつある。
TPUv7の登場は、AIハードウェア市場が「Nvidia一強」から、健全な競争原理が働く市場へと移行する転換点となるかもしれない。少なくとも、我々ユーザーにとっては、GoogleとNvidiaが殴り合い、性能が上がり価格が下がる未来は歓迎すべきことだ。あとはGoogleが、開発者体験(DX)という最後のピースをどう埋めるか。そこに注目したい。