AIコンサルのコラム一覧に戻る
AIコンサル

Google TPU完全解説|Trillium(v6)GA・Ironwood(v7)4.6 PFLOPS・Anthropic 100万チップ契約・2026年推論時代

2026-01-21濱本

Google TPUの最新動向を徹底解説。Trillium(TPU v6)が一般提供開始、v5e比4.7倍の性能向上を実現。TPU v7 Ironwoodは4.6 PFLOPsのFP8性能、9,216チップで42.5 EFLOPsのスーパーポッドを構成。Anthropicが100万チップ以上の契約締結。Gemini 3トレーニングと「当時→現在」の進化を解説します。

Google TPU完全解説|Trillium(v6)GA・Ironwood(v7)4.6 PFLOPS・Anthropic 100万チップ契約・2026年推論時代
シェア

株式会社TIMEWELLの濱本です。

2026年、GoogleのTPU(Tensor Processing Unit)は「推論の時代」を牽引する存在へと進化しました。

Trillium(TPU v6)が一般提供(GA)を開始し、TPU v5e比で4.7倍の性能向上を実現。さらに、TPU v7「Ironwood」が発表され、単一チップで4.6 PFLOPs(FP8)という驚異的な性能を達成しました。9,216チップのスーパーポッドは42.5 EFLOPsを実現し、Anthropicは100万チップ以上の契約を締結しています。

本記事では、Google TPUの歴史から最新のIronwoodまで、AIインフラの進化を解説します。

Google TPU 2026年最新情報

項目 内容
Trillium(v6) GA(一般提供)、v5e比4.7倍性能
Ironwood(v7) 4.6 PFLOPs(FP8)、192GB HBM3e
v7スーパーポッド 9,216チップ、42.5 EFLOPs
Anthropic契約 100万チップ以上(2026年〜)
Gemini 3 TPUのみでトレーニング
エネルギー効率 Trilliumはv5e比67%向上
ネイティブFP8 Ironwoodで初搭載
提供形態 Google Cloud経由

Trillium(TPU v6)——一般提供開始

Trilliumの特徴

Trilliumは、Googleの第6世代TPUで、2026年に一般提供(GA)が開始されました。

Trilliumの主要スペック:

  • 256チップ/Podのフットプリント
  • BF16ピーク性能:約918 TFLOPS
  • 256×256 MXUアレイサイズ
  • 各チップに1 TensorCore(2 MXU、ベクトルユニット、スカラーユニット)

v5e比での改善

Trilliumは、前世代から大幅な性能向上を実現しています。

性能向上:

  • ピーク演算性能:v5e比4.7倍
  • トレーニング性能:4倍以上向上
  • 推論スループット:最大3倍向上
  • エネルギー効率:67%以上向上

ハードウェア改善:

  • HBM容量と帯域幅を2倍に
  • チップ間相互接続(ICI)帯域幅を2倍に
  • 第3世代SparseCoreで超大規模埋め込み処理

Gemini 2.0/3.0のトレーニング

Trillium TPUは、Googleの最新AIモデルのトレーニングに使用されています。

Google DeepMindでの活用:

  • Gemini 2.0のトレーニングと提供
  • 長文脈・マルチモーダルモデルのサポート
  • 低レイテンシでの推論実行
  • Gemini 3はTPUのみでトレーニング

Ironwood(TPU v7)——推論時代の到来

「推論の時代」の幕開け

Ironwoodは、Googleが「推論の時代のための初のTPU」と位置づける第7世代アーキテクチャです。

Ironwoodの位置づけ:

  • 大規模AIトレーニングと推論の両方に対応
  • ネイティブFP8サポートを初搭載
  • 9,216チップのスーパーポッドで42.5 EFLOPs
  • 2026年にプレビュー提供開始

Ironwoodの主要スペック

演算性能:

  • ピークFP8性能:4.6 PFLOPs/chip
  • ピークBF16性能:約2,300 TFLOPS
  • ネイティブ精度:BF16、FP8、INT8

メモリ:

  • HBM3e 192GB/chip(Trilliumの6倍)
  • メモリ帯域幅:7.4 TB/s
  • 大規模モデル・データセットの処理が可能

インターコネクト:

  • チップ間接続:1.2 TBps双方向
  • Trilliumの1.5倍の帯域幅
  • 高速なチップ間通信

効率性:

  • ワットあたり性能:Trillium比2倍
  • 大幅なエネルギー効率向上

スーパーポッド構成

TPU v7スーパーポッドの規模:

  • 256チップPodから9,216チップスーパーポッドまでスケール
  • 9,216チップで42.5 FP8 EFLOPs
  • 各チップに2 TensorCore、4 SparseCore
  • 大規模密集・MoEモデルに最適

Anthropic——100万チップ契約

大規模TPU契約

Anthropicは、Google Cloudとの間で歴史的な規模のTPU契約を締結しました。

契約内容:

  • 100万チップ以上のIronwood導入(2026年〜)
  • 1ギガワット以上のTPU容量を独占利用
  • Claudeモデルのトレーニングと提供に活用
  • 60万チップはレンタル、40万チップは購入

契約の意義:

  • TPUの商用展開としては最大規模
  • Ironwoodの本番環境での稼働実績を証明
  • AI企業のインフラ戦略の新しい形

TPUの歴史——10年以上の進化

TPU v1(2016年)

特徴:

  • 推論専用ASIC
  • Google内部で使用開始
  • AlphaGoに活用

TPU v2/v3(2017-2018年)

進化:

  • トレーニングにも対応
  • Podスケールでの提供開始
  • Cloud TPUとして外部提供

TPU v4(2021年)

改善:

  • 性能の大幅向上
  • 4,096チップのスーパーコンピュータ構成
  • PaLMモデルのトレーニングに活用

TPU v5e/v5p(2023-2024年)

特徴:

  • v5e:コスト効率重視
  • v5p:最高性能志向
  • Gemini 1.0/1.5のトレーニング

当時と現在:Google TPUの進化

項目 当時(2024年 v5p/v5e) 現在(2026年1月)
最新世代 TPU v5p、v5e Ironwood(v7)
ピーク性能/chip 約500 TFLOPS 4.6 PFLOPs(FP8)
メモリ/chip 32GB(v5e) 192GB
メモリ帯域 約1.6 TB/s 7.4 TB/s
スーパーポッド規模 4,096チップ 9,216チップ
スーパーポッド性能 約2 EFLOPs 42.5 EFLOPs
ネイティブFP8 なし 対応
主な顧客 Google内部中心 Anthropic 100万チップ
提供状況 GA Trillium GA、Ironwood Preview

競合との比較

Google TPU vs NVIDIA GPU

項目 TPU v7 Ironwood NVIDIA Rubin
ピーク性能/chip 4.6 PFLOPs(FP8) 50 PFLOPs(NVFP4)
メモリ/chip 192GB HBM3e 288GB HBM4
メモリ帯域 7.4 TB/s 22 TB/s
提供形態 クラウドのみ ハードウェア販売
エコシステム JAX/TensorFlow CUDA(業界標準)
最大規模 9,216チップ Pod NVL72(72 GPU)

Google TPU vs AMD Instinct

項目 TPU v7 Ironwood AMD MI450
提供形態 クラウド ハードウェア
ソフトウェア JAX/TensorFlow ROCm
市場シェア クラウド特化 NVIDIAに次ぐ

ビジネス活用シーン

大規模モデルトレーニング

活用フロー:

  1. Google Cloudでトレーニング環境を構築
  2. Trilliumまたは Ironwoodを選択
  3. JAX/TensorFlowでモデルを実装
  4. スーパーポッドでスケールアウト

推論ワークロード

Ironwoodの強み:

  • 低レイテンシ推論
  • 高スループット処理
  • コスト効率の良い大規模展開

マルチモーダルAI

対応ワークロード:

  • 長文脈モデル
  • 画像・動画理解
  • テキスト・画像生成

導入の考慮点

メリット

1. Google Cloud統合

  • シームレスな環境構築
  • BigQuery、Vertex AIとの連携
  • 運用管理の簡素化

2. コスト効率

  • 専用ASICによる効率性
  • スポットインスタンスの活用
  • 大規模ワークロードでの優位性

3. 最新モデルへのアクセス

  • Gemini APIとの連携
  • Google DeepMindの研究成果

注意点

1. ベンダーロックイン

  • Google Cloud限定
  • JAX/TensorFlow中心の開発

2. CUDAエコシステムとの互換性

  • PyTorch + CUDAからの移行コスト
  • ライブラリの互換性確認が必要

3. 可用性

  • リージョンによる制限
  • 需要に対する供給制約

まとめ

Google TPUは、Trilliumの一般提供とIronwoodの発表により、AIインフラの新時代を切り開いています。

本記事のポイント:

  • Trillium(TPU v6)がGA、v5e比4.7倍の性能向上
  • エネルギー効率67%向上、HBM・ICI帯域幅2倍
  • Gemini 2.0/3.0はTPUでトレーニング、Gemini 3はTPUのみ
  • Ironwood(TPU v7)は4.6 PFLOPs(FP8)、ネイティブFP8初搭載
  • 192GB HBM3e、7.4 TB/s帯域幅でTrilliumの6倍のメモリ
  • 9,216チップスーパーポッドで42.5 EFLOPs達成
  • Anthropicが100万チップ以上の契約、Claudeトレーニングに活用
  • 「推論の時代」のための専用設計

2016年のTPU v1から10年——Googleは独自のAIチップ戦略を一貫して推進し、今やNVIDIAに次ぐAIインフラの選択肢を確立しました。Anthropicとの大型契約は、TPUが単なるGoogle内部ツールではなく、業界標準のAIインフラとなる可能性を示しています。

Ironwoodの「推論の時代」というコンセプトは、AIが実験段階から本番運用へ移行する現在のトレンドを象徴しています。トレーニングだけでなく、大規模な推論ワークロードを効率的に処理できるTPUは、AI企業のインフラ戦略における重要な選択肢となるでしょう。

この記事が参考になったらシェア

シェア

AIコンサルについてもっと詳しく

AIコンサルの機能や導入事例について、詳しくご紹介しています。