株式会社TIMEWELLの濱本です。
Google Cloud Nextが開催され、クラウドコンピューティングとAIの未来を形作る数々の革新的な発表が行われました。特に注目すべきは、AIのトレーニングと推論を飛躍的に加速させるインフラストラクチャの強化、大規模言語モデル「Gemini」の機能拡張と適用範囲の拡大、そして企業のあらゆる業務プロセスにAIを浸透させる次世代AIエージェント戦略です。Googleは、自社の持つ惑星規模のネットワークインフラ、最先端のAIチップ、そして洗練されたソフトウェアプラットフォームを組み合わせることで、エンタープライズが直面する課題を解決し、新たな価値創造を支援する姿勢を鮮明にしました。
本記事では、Google Cloud Nextで発表された主要なアップデート、特にCloud WANによるネットワーク強化、第7世代TPU「Ironwood」の驚異的な性能、Geminiの進化、そしてVertex AIを中心としたAIエージェント開発・活用の新機能について、ビジネスパーソンの皆様に向けてその詳細と意義を深く掘り下げて解説します。これらの技術が、あなたのビジネスにどのような変革をもたらす可能性を秘めているのか、その全貌を明らかにします。
インフラ革新が拓く未来:Cloud WANと次世代TPU Ironwoodの衝撃 AI開発・推論の進化:ソフトウェアとプラットフォームの包括的強化 次世代AIエージェント戦略:構築から全社展開、特定業務特化まで 企業全体でのエージェント活用を促進する「Google Agent Space」 特定業務への特化:顧客エンゲージメント、データ分析、ソフトウェア開発 まとめ インフラ革新が拓く未来:Cloud WANと次世代TPU Ironwoodの衝撃
Google Cloud Nextにおける発表の中でも、企業のデジタルトランスフォーメーションを根底から支えるインフラストラクチャの進化は、特に注目に値します。その筆頭が、Googleの広大なグローバルプライベートネットワークをエンタープライズ向けに開放する「Cloud WAN (Cloud Wide Area Network)」の発表です。これは単なるネットワークサービスの提供に留まらず、Googleが自社のサービス提供で培ってきた、惑星規模(Planet Scale)のネットワークインフラの恩恵を、一般企業が直接享受できることを意味します。Cloud WANは、アプリケーションのパフォーマンスを最適化するように設計されており、従来のネットワークソリューションと比較して実に40%以上もの高速化を実現すると謳われています。高速性だけでなく、総所有コスト(TCO)も最大40%削減できるという点は、コスト効率を重視する企業にとって大きな魅力となるでしょう。すでに、金融サービスのCitadel Securitiesや食品大手のNestleといったグローバル企業が、このCloud WANを活用し、より高速で信頼性の高いソリューションを実現しているという事実は、その実用性と効果を裏付けています。このサービスは、2025年4月の後半には全てのGoogle Cloud顧客が利用可能になるとのことです。
そして、AI開発の未来を左右すると言っても過言ではないのが、第7世代TPU(Tensor Processing Unit)「Ironwood」の発表です。TPUは、Googleが機械学習ワークロード、特にニューラルネットワークの計算を高速化するために独自に開発した特定用途向け集積回路(ASIC)であり、その進化はAIモデルの性能向上と密接に結びついています。今回発表されたIronwoodは、今年後半に提供開始予定とされ、その性能はまさに驚異的です。Googleが最初に一般提供を開始したTPUと比較して、Ironwoodは実に3600倍ものパフォーマンス向上を達成しています。これは、AIモデルのトレーニングや大規模な推論にかかる時間を劇的に短縮し、これまで不可能だった規模や複雑さを持つモデルの開発を可能にすることを示唆しています。Google自身も「これまで開発した中で最も強力なチップであり、AIモデルの次なるフロンティアを切り拓くだろう」と述べており、その自信のほどが伺えます。
Ironwoodの性能は、具体的な数値によってさらに際立ちます。1つの「ポッド」と呼ばれるユニットには9,000以上のチップが集積され、ポッド全体で42.5エクサフロップス(ExaFLOPS)という驚異的な計算能力を発揮します。エクサフロップスは、1秒間に10の18乗回の浮動小数点演算を行える能力を示す単位であり、そのスケール感を理解するために、世界のスーパーコンピュータランキングで1位とされるシステムが1.7エクサフロップスであることを考えると、Ironwoodポッド1基でその24倍以上の計算能力を持つことになります。これは、Gemini 2.5のような、指数関数的に増大する要求を持つ次世代の思考モデル(Thinking Models)の要求に応えるためのものです。
さらに特筆すべきは、この圧倒的な性能向上と並行して、エネルギー効率も大幅に改善されている点です。初代TPUと比較して、Ironwoodは29倍ものエネルギー効率向上を実現しています。これは、高性能化に伴う消費電力の増大という課題に対するGoogleの真摯な取り組みを示すものであり、サステナビリティへの配慮とコスト削減の両面で大きな意義を持ちます。高性能でありながら環境負荷も低減するという、まさに次世代のコンピューティングインフラに求められる要件を満たしています。Cloud WANによる高速かつ効率的なネットワークと、Ironwood TPUによる圧倒的な計算能力及びエネルギー効率。この二つのインフラ革新は、企業がAIを活用してビジネスを加速させるための強力な基盤となることは間違いありません。
AI開発・推論の進化:ソフトウェアとプラットフォームの包括的強化
Google Cloud Nextでは、強力なハードウェアインフラを最大限に活用し、AIの開発からデプロイ、運用に至るまでのプロセスを効率化・高度化するためのソフトウェアとプラットフォームに関する重要な発表も相次ぎました。これらは、企業がAI、特に生成AI(Gen AI)をより容易に、かつコスト効率よく導入・活用できるように設計されています。
まず、AI推論(学習済みモデルを用いた予測・判断)の領域では、Google Kubernetes Engine (GKE)における新たな機能強化が発表されました。GKEはコンテナ化されたアプリケーションのデプロイ、スケーリング、管理を自動化するプラットフォームですが、ここにGen AIに特化したスケーリング機能や負荷分散機能が導入されます。これにより、AIモデルをサービスとして提供する際のコスト(サービングコスト)を最大30%削減し、応答時間のばらつきを示すテールレイテンシを最大60%削減、そして処理能力であるスループットを最大40%向上させることが可能になります。これは、ユーザー体験の向上と運用コストの削減に直結する重要な改善です。
さらに、Google DeepMindが開発し、Geminiのような自社の大規模モデルを支えてきた分散機械学習ランタイム「Pathways」が、初めてクラウド顧客向けに提供されることになりました。Pathwaysは、複数のホスト(サーバーやアクセラレータ)にまたがる複雑な推論タスクを効率的に実行し、動的なスケーリングを実現する技術です。これにより、モデルのサービングを数百ものアクセラレータ(TPUやGPU)にスケールアウトさせ、バッチ処理の効率性と低レイテンシという、しばしばトレードオフの関係にある二つの要素を最適なバランスで両立させることが可能になります。これは、大規模なAIモデルを本番環境で運用する際の性能とコストの課題を解決する上で、大きな前進と言えるでしょう。
また、オープンソースの推論ライブラリであるvLLMをTPU上で利用可能にする取り組みも発表されました。vLLMは、特に大規模言語モデル(LLM)の推論をGPU上で高速化・効率化するために広く使われています。PyTorchとvLLMを用いてGPU向けに最適化されたワークロードを持つ顧客は、これを容易に、かつコスト効率よくTPU上で実行できるようになります。これにより、ハードウェア選択の柔軟性が高まり、既存の資産を活かしながらTPUのメリットを享受できるようになります。
これらのハードウェア(TPU Ironwood)とソフトウェア(GKE強化、Pathways、vLLM on TPUs)の強化は、「AI Hypercomputer」というコンセプトの下で統合的に提供されます。このAI Hypercomputerは、一貫して低いコストで、より多くのインテリジェンス、すなわち有用なAIの出力を提供することを可能にします。その効果の一例として、AI Hypercomputer上で動作するGemini 2.0 Flashは、競合するGPT-4oと比較して、1ドルあたり24倍ものインテリジェンスを提供し、DeepSeek-V2と比較しても5倍高いと述べられています。これは、AI活用のコストパフォーマンスを劇的に向上させる可能性を示唆しています。
Geminiの適用範囲も拡大されます。Google Distributed Cloud (GDC)上で、Geminiがローカル環境で実行可能になることが発表されました。これは、インターネットから隔離されたエアギャップ環境や、接続された環境の両方に対応します。特に、機密性の高いデータを扱う政府機関や企業にとって、データを外部に出すことなく、オンプレミスに近い形でGeminiを利用できることは大きなメリットです。この発表には、NVIDIAのConfidential Computing技術や最新のBlackwellシステム(DGX B200、 HGX B200)のサポート、そしてDellとのパートナーシップも含まれています。すでに米国政府のSecretおよびTop Secretミッション向けに認可されているGoogle Distributed Cloud Air Gap製品上でもGeminiが利用可能になり、最高レベルのセキュリティとコンプライアンス要件を満たす環境でのAI活用が実現します。
さらに、日常的な業務で使われるGoogle Workspaceにおいても、Geminiを活用した新機能が導入されます。Google Sheetsには「Help me analyze」機能が追加され、ユーザーがデータに対する専門家レベルの分析をガイド付きで完了できるよう支援します。Google Docsでは「Audio overviews」機能により、ドキュメントの内容を高品質な音声バージョンで生成し、聞くことによる新しいインタラクションを提供します。そして「Google Workspace Flows」は、時間のかかる反復的なタスクを自動化し、より多くのコンテキストに基づいた意思決定を支援することで、生産性向上に貢献します。
加えて、テキストプロンプトから30秒の音楽クリップを生成する「Lyria」がGoogle Cloudで利用可能になることも発表されました。これはハイパースケーラーとしては初の試みであり、コンテンツ制作における新たな可能性を開きます。
オープンソースモデルへの取り組みも強化され、Vertex AI上でMetaのLlama 4が一般提供(GA)され、AI21 Labsのオープンモデルポートフォリオもアクセス可能になりました。Vertex AIは、これらのオープンモデルを含め、あらゆるモデルが適切な情報に適切なタイミングでアクセスできるよう、データ接続機能も強化されています。あらゆるデータソース、あらゆるベクトルデータベース、あらゆるクラウドに接続可能で、さらに今回、既存のNetAppストレージ上のデータに対して、データを複製することなく直接エージェントを構築できる機能が発表されました。加えて、Oracle、SAP、ServiceNow、Workdayといった主要なエンタープライズアプリケーションとの接続も可能です。モデルの回答の信頼性を高める「グラウンディング」に関しても、Google検索、自社の企業データ、Googleマップ、そしてサードパーティソースを組み合わせた、市場で最も包括的なアプローチを提供すると述べています。これらのソフトウェアとプラットフォームの強化は、AI開発のハードルを下げ、より多くの企業がAIの恩恵を受けられるようにするためのGoogleの強いコミットメントを示しています。
次世代AIエージェント戦略:構築から全社展開、特定業務特化まで
今回のGoogle Cloud Nextで最も注目すべき領域の一つが、AIエージェントに関する包括的かつ先進的な戦略の発表です。単にAIモデルを提供するだけでなく、それらを活用して具体的なタスクを実行し、人間と協働し、さらにはエージェント同士が連携して複雑な問題を解決する「エージェント」の開発と利用を、企業全体で加速させるための新たなツールとフレームワークが多数打ち出されました。
まず、昨年のVertex AI Agent Builderの発表に続き、新たに「Agent Development Kit (ADK)」が発表されました。これは、洗練されたマルチエージェントシステム(複数のAIエージェントが協調して動作するシステム)の構築プロセスを簡略化するための新しいオープンソースフレームワークです。ADKを用いることで、開発者はGeminiを搭載した高度なエージェントを構築し、それらに特定のツールを使わせたり、推論や思考を含む複雑なマルチステップのタスクを実行させたりすることが容易になります。さらに、エージェントが他のエージェントを発見し、そのスキルを学習し、互いに協力して作業を進めることを可能にしながらも、開発者はそのプロセスに対して精密な制御を維持できます。
このADKは、「Model Context Protocol」をサポートしています。これは、AIモデルが様々なデータソースやツールにアクセスし、それらと対話するための統一された方法を提供するものです。従来のように、データソースやツールごとにカスタムのインテグレーションを開発する必要がなくなり、開発の効率が大幅に向上します。
さらに、エージェント間の連携を促進するために、「Agent-to-Agent Protocol」も導入されました。このプロトコルにより、基盤となるAIモデルや開発フレームワークが異なるエージェント同士でも、互いにコミュニケーションを取り、協調して動作することが可能になります。Googleは、LangGraphやCrewAIといった他の主要なエージェントフレームワークを提供するパートナーとも連携し、このプロトコルをサポートすることで、オープンなマルチエージェントエコシステムの実現を目指しています。
企業全体でのエージェント活用を促進する「Google Agent Space」
エージェントの開発環境だけでなく、企業内の全従業員がAIエージェントを容易に利用できる環境を提供することも重要です。そのために発表されたのが「Google Agent Space」です。これは、従業員が組織内の情報を検索・統合したり、AIエージェントと対話したり、さらにはそれらのエージェントに自身の代わりにエンタープライズアプリケーション上で特定のアクションを実行させたりすることを可能にする新しいワークスペースです。Google Agent Spaceは、Google品質のエンタープライズサーチ、会話型AI(チャット)、Gemini、そしてサードパーティ製のエージェントを統合したプラットフォームです。ドキュメントやデータベース、さらにはSaaSアプリケーションを検索したり、トランザクションを実行したりするための専用コネクタを含む広範なツールセットを備えています。もちろん、企業のデータや知的財産を保護するための高度なセキュリティとコンプライアンス機能も組み込まれています。これにより、専門的な知識を持たない従業員でも、日常業務の中でAIエージェントの恩恵を手軽に受けられるようになります。
特定業務への特化:顧客エンゲージメント、データ分析、ソフトウェア開発
汎用的なエージェント開発・利用基盤に加え、特定の業務領域に特化したエージェントソリューションも強化されています。
顧客エンゲージメントの領域では、次世代のスイートが発表されました。これには、より人間らしい音声、感情を理解し会話中に適応する能力、顧客のデバイスを通じてリアルタイムで状況を解釈し応答できるストリーミングビデオサポート、ノーコードインターフェースでのカスタムエージェント構築支援、そしてAPIコールを通じて商品検索、カートへの追加、チェックアウトといった特定のタスクを実行する能力などが含まれます。これにより、コールセンターやカスタマーサポートにおける顧客体験が大幅に向上することが期待されます。
データチーム向けには、役割ごとに特化したエージェントが発表されました。
データエンジニアリングチーム向け:データカタログの自動化、メタデータの生成、データ品質の維持、データパイプラインの生成といった、データエンジニアリングライフサイクルのあらゆる側面を支援するエージェント。
データサイエンスチーム向け:データサイエンスノートブック内で、データの読み込みや特徴量エンジニアリングから予測モデリングに至るまで、ワークフローのあらゆるステップを加速する包括的なコーディングパートナーとして機能するAIエージェント。
データアナリストおよびビジネスユーザー向け:自然言語での対話を通じて、強力で信頼性の高い分析を実行する会話型分析エージェント。このエージェントは、企業のWebアプリケーションやモバイルアプリケーションに直接埋め込むことも可能です。
ソフトウェア開発ライフサイクル(SDLC)全体を支援するために、「Code Assist Agents」も発表されました。これは、既存コードのモダナイゼーションから、開発プロセス全体のタスク支援まで、幅広く開発者をサポートします。開発者は、カンバンボードを通じてエージェントと対話し、Code Assistが現在取り組んでいるタスクをリアルタイムで確認したり、指示を出したりできます。さらに、Atlassian、 Sentry、 Sneakといった多くのパートナーとのインテグレーションも提供され、今後さらに多くのパートナー連携が予定されています。
これらの発表は、Google CloudがAIエージェントを単なる技術コンセプトではなく、企業のあらゆる部門、あらゆる従業員が活用できる実用的なツールとして普及させようとしている明確な意思表示です。ADKによる開発の簡素化、Agent Spaceによる全社展開の促進、そして特定業務への特化により、AIエージェントは企業の生産性向上、イノベーション促進、そして競争力強化に不可欠な要素となるでしょう。
まとめ
Google Cloud Nextで発表された一連のアップデートは、AI技術がエンタープライズコンピューティングのあらゆる側面を再定義しつつある現状を明確に示しています。惑星規模のネットワークインフラを開放するCloud WAN、AI計算能力を新たな次元へと引き上げる第7世代TPU Ironwoodといったインフラストラクチャの革新は、より高度で大規模なAIモデルの開発と利用を可能にする基盤を提供します。
ソフトウェアとプラットフォーム層では、GKEにおける推論機能の強化、Pathwaysの提供、vLLM on TPUsといった技術がAIワークロードの効率とパフォーマンスを向上させ、AI Hypercomputerというコンセプトの下でコストパフォーマンスの高いAI活用を実現します。Geminiの適用範囲がGoogle Distributed CloudやWorkspaceへと拡大されたことは、セキュリティ要件の厳しい環境や日常業務の中でも最先端AIの恩恵を受けられることを意味し、Lyriaやオープンモデルサポート、Vertex AIのデータ接続・グラウンディング機能強化は、AI開発の柔軟性と信頼性を高めます。
特に注目すべきは、AIエージェントに関する包括的な戦略です。Agent Development Kit (ADK)による開発の簡素化、オープンなプロトコルによるエージェント間の連携、そしてGoogle Agent Spaceによる全従業員への展開は、AIを単なる分析ツールから、能動的にタスクを実行し、人間と協働するパートナーへと進化させる可能性を秘めています。顧客エンゲージメント、データ分析、ソフトウェア開発といった特定業務に特化したエージェントの登場は、その実用化をさらに加速させるでしょう。
これらの発表は、Google Cloudが単なるインフラプロバイダーではなく、企業のAIトランスフォーメーションをエンドツーエンドで支援する戦略的パートナーであることを示しています。企業は、これらの新しいツールやサービスを活用することで、データに基づいた意思決定の迅速化、業務プロセスの自動化と効率化、新たな顧客体験の創出、そしてイノベーションの加速を実現できる可能性があります。Google Cloud Nextで示された未来像は、AIがビジネスの中核を担う時代がすぐそこまで来ていることを強く印象付けるものと言えるでしょう。
