株式会社TIMEWELLの濱本です。
2026年、GoogleのTPU(Tensor Processing Unit)は「推論の時代」を牽引する存在へと進化しました。
Trillium(TPU v6)が一般提供(GA)を開始し、TPU v5e比で4.7倍の性能向上を実現。さらに、TPU v7「Ironwood」が発表され、単一チップで4.6 PFLOPs(FP8)という驚異的な性能を達成しました。9,216チップのスーパーポッドは42.5 EFLOPsを実現し、Anthropicは100万チップ以上の契約を締結しています。
本記事では、Google TPUの歴史から最新のIronwoodまで、AIインフラの進化を解説します。
Google TPU 2026年最新情報
| 項目 | 内容 |
|---|---|
| Trillium(v6) | GA(一般提供)、v5e比4.7倍性能 |
| Ironwood(v7) | 4.6 PFLOPs(FP8)、192GB HBM3e |
| v7スーパーポッド | 9,216チップ、42.5 EFLOPs |
| Anthropic契約 | 100万チップ以上(2026年〜) |
| Gemini 3 | TPUのみでトレーニング |
| エネルギー効率 | Trilliumはv5e比67%向上 |
| ネイティブFP8 | Ironwoodで初搭載 |
| 提供形態 | Google Cloud経由 |
Trillium(TPU v6)——一般提供開始
Trilliumの特徴
Trilliumは、Googleの第6世代TPUで、2026年に一般提供(GA)が開始されました。
Trilliumの主要スペック:
- 256チップ/Podのフットプリント
- BF16ピーク性能:約918 TFLOPS
- 256×256 MXUアレイサイズ
- 各チップに1 TensorCore(2 MXU、ベクトルユニット、スカラーユニット)
v5e比での改善
Trilliumは、前世代から大幅な性能向上を実現しています。
性能向上:
- ピーク演算性能:v5e比4.7倍
- トレーニング性能:4倍以上向上
- 推論スループット:最大3倍向上
- エネルギー効率:67%以上向上
ハードウェア改善:
- HBM容量と帯域幅を2倍に
- チップ間相互接続(ICI)帯域幅を2倍に
- 第3世代SparseCoreで超大規模埋め込み処理
Gemini 2.0/3.0のトレーニング
Trillium TPUは、Googleの最新AIモデルのトレーニングに使用されています。
Google DeepMindでの活用:
- Gemini 2.0のトレーニングと提供
- 長文脈・マルチモーダルモデルのサポート
- 低レイテンシでの推論実行
- Gemini 3はTPUのみでトレーニング
Ironwood(TPU v7)——推論時代の到来
「推論の時代」の幕開け
Ironwoodは、Googleが「推論の時代のための初のTPU」と位置づける第7世代アーキテクチャです。
Ironwoodの位置づけ:
- 大規模AIトレーニングと推論の両方に対応
- ネイティブFP8サポートを初搭載
- 9,216チップのスーパーポッドで42.5 EFLOPs
- 2026年にプレビュー提供開始
Ironwoodの主要スペック
演算性能:
- ピークFP8性能:4.6 PFLOPs/chip
- ピークBF16性能:約2,300 TFLOPS
- ネイティブ精度:BF16、FP8、INT8
メモリ:
- HBM3e 192GB/chip(Trilliumの6倍)
- メモリ帯域幅:7.4 TB/s
- 大規模モデル・データセットの処理が可能
インターコネクト:
- チップ間接続:1.2 TBps双方向
- Trilliumの1.5倍の帯域幅
- 高速なチップ間通信
効率性:
- ワットあたり性能:Trillium比2倍
- 大幅なエネルギー効率向上
スーパーポッド構成
TPU v7スーパーポッドの規模:
- 256チップPodから9,216チップスーパーポッドまでスケール
- 9,216チップで42.5 FP8 EFLOPs
- 各チップに2 TensorCore、4 SparseCore
- 大規模密集・MoEモデルに最適
Anthropic——100万チップ契約
大規模TPU契約
Anthropicは、Google Cloudとの間で歴史的な規模のTPU契約を締結しました。
契約内容:
- 100万チップ以上のIronwood導入(2026年〜)
- 1ギガワット以上のTPU容量を独占利用
- Claudeモデルのトレーニングと提供に活用
- 60万チップはレンタル、40万チップは購入
契約の意義:
- TPUの商用展開としては最大規模
- Ironwoodの本番環境での稼働実績を証明
- AI企業のインフラ戦略の新しい形
TPUの歴史——10年以上の進化
TPU v1(2016年)
特徴:
- 推論専用ASIC
- Google内部で使用開始
- AlphaGoに活用
TPU v2/v3(2017-2018年)
進化:
- トレーニングにも対応
- Podスケールでの提供開始
- Cloud TPUとして外部提供
TPU v4(2021年)
改善:
- 性能の大幅向上
- 4,096チップのスーパーコンピュータ構成
- PaLMモデルのトレーニングに活用
TPU v5e/v5p(2023-2024年)
特徴:
- v5e:コスト効率重視
- v5p:最高性能志向
- Gemini 1.0/1.5のトレーニング
当時と現在:Google TPUの進化
| 項目 | 当時(2024年 v5p/v5e) | 現在(2026年1月) |
|---|---|---|
| 最新世代 | TPU v5p、v5e | Ironwood(v7) |
| ピーク性能/chip | 約500 TFLOPS | 4.6 PFLOPs(FP8) |
| メモリ/chip | 32GB(v5e) | 192GB |
| メモリ帯域 | 約1.6 TB/s | 7.4 TB/s |
| スーパーポッド規模 | 4,096チップ | 9,216チップ |
| スーパーポッド性能 | 約2 EFLOPs | 42.5 EFLOPs |
| ネイティブFP8 | なし | 対応 |
| 主な顧客 | Google内部中心 | Anthropic 100万チップ |
| 提供状況 | GA | Trillium GA、Ironwood Preview |
競合との比較
Google TPU vs NVIDIA GPU
| 項目 | TPU v7 Ironwood | NVIDIA Rubin |
|---|---|---|
| ピーク性能/chip | 4.6 PFLOPs(FP8) | 50 PFLOPs(NVFP4) |
| メモリ/chip | 192GB HBM3e | 288GB HBM4 |
| メモリ帯域 | 7.4 TB/s | 22 TB/s |
| 提供形態 | クラウドのみ | ハードウェア販売 |
| エコシステム | JAX/TensorFlow | CUDA(業界標準) |
| 最大規模 | 9,216チップ Pod | NVL72(72 GPU) |
Google TPU vs AMD Instinct
| 項目 | TPU v7 Ironwood | AMD MI450 |
|---|---|---|
| 提供形態 | クラウド | ハードウェア |
| ソフトウェア | JAX/TensorFlow | ROCm |
| 市場シェア | クラウド特化 | NVIDIAに次ぐ |
ビジネス活用シーン
大規模モデルトレーニング
活用フロー:
- Google Cloudでトレーニング環境を構築
- Trilliumまたは Ironwoodを選択
- JAX/TensorFlowでモデルを実装
- スーパーポッドでスケールアウト
推論ワークロード
Ironwoodの強み:
- 低レイテンシ推論
- 高スループット処理
- コスト効率の良い大規模展開
マルチモーダルAI
対応ワークロード:
- 長文脈モデル
- 画像・動画理解
- テキスト・画像生成
導入の考慮点
メリット
1. Google Cloud統合
- シームレスな環境構築
- BigQuery、Vertex AIとの連携
- 運用管理の簡素化
2. コスト効率
- 専用ASICによる効率性
- スポットインスタンスの活用
- 大規模ワークロードでの優位性
3. 最新モデルへのアクセス
- Gemini APIとの連携
- Google DeepMindの研究成果
注意点
1. ベンダーロックイン
- Google Cloud限定
- JAX/TensorFlow中心の開発
2. CUDAエコシステムとの互換性
- PyTorch + CUDAからの移行コスト
- ライブラリの互換性確認が必要
3. 可用性
- リージョンによる制限
- 需要に対する供給制約
まとめ
Google TPUは、Trilliumの一般提供とIronwoodの発表により、AIインフラの新時代を切り開いています。
本記事のポイント:
- Trillium(TPU v6)がGA、v5e比4.7倍の性能向上
- エネルギー効率67%向上、HBM・ICI帯域幅2倍
- Gemini 2.0/3.0はTPUでトレーニング、Gemini 3はTPUのみ
- Ironwood(TPU v7)は4.6 PFLOPs(FP8)、ネイティブFP8初搭載
- 192GB HBM3e、7.4 TB/s帯域幅でTrilliumの6倍のメモリ
- 9,216チップスーパーポッドで42.5 EFLOPs達成
- Anthropicが100万チップ以上の契約、Claudeトレーニングに活用
- 「推論の時代」のための専用設計
2016年のTPU v1から10年——Googleは独自のAIチップ戦略を一貫して推進し、今やNVIDIAに次ぐAIインフラの選択肢を確立しました。Anthropicとの大型契約は、TPUが単なるGoogle内部ツールではなく、業界標準のAIインフラとなる可能性を示しています。
Ironwoodの「推論の時代」というコンセプトは、AIが実験段階から本番運用へ移行する現在のトレンドを象徴しています。トレーニングだけでなく、大規模な推論ワークロードを効率的に処理できるTPUは、AI企業のインフラ戦略における重要な選択肢となるでしょう。
