こんにちは、株式会社TIMEWELLの濱本です。
2026年4月22日から米国ラスベガスで開催されたGoogle Cloud Next 2025の基調講演を、リアルタイムで追いかけながら強い既視感を覚えました。ちょうど一年前、同じ会場で「AIはエンタープライズで本格稼働に入る」と語られたとき、多くの日本企業の経営者は半信半疑だったはずです。ところがわずか一年で、Thomas Kurian CEOは冒頭からこう切り出しました。実験フェーズはすでに終わった、問題はAIを組織全体の本番環境にどう展開するかだ、と。基調講演のスクリーンには、Google Cloudの顧客の約75%が何らかのAI製品を実運用に載せているというデータが大きく映し出されました。パイロットではなく、日々の売上と業務のなかで回している比率です。
同じタイミングで、Sundar Pichai CEOが登壇して明かしたのが、Google自身の姿でした。社内で生まれる新規コードのおよそ75%がすでにAIによって生成され、人間のエンジニアは生成物を確認して承認する側に回っている、という事実です。2024年秋の時点で30%前後、2025年秋で50%前後と語られていた数字が、わずか半年でそこまで跳ね上がっていた、と受け止めると、身震いする経営者は多いはずです。以下、基調講演の全体像を技術の深層までたどりながら、日本企業にとっての意味を整理していきます。数字と固有名詞を大量に引用しますが、それぞれが「AIエージェント前提の経営」という一本の線につながっていることを意識して読んでいただけると、頭の中に新しい地図が描かれるはずです。
Kurianが宣言した「AIの本番展開」の意味
Thomas Kurianが基調講演の最初の数分に置いたのは、製品の発表ではなく、時代認識の書き換えでした。「the experimental phase is behind us」「the real challenge begins: how do you move AI into production across your entire enterprise?」という二つのフレーズは、英語圏のメディアでもそのまま何度も引用されています。日本語に直訳すると「実験フェーズは我々の後ろにある」「本当の挑戦は、AIを企業全体の本番環境にどう展開するかから始まる」となり、強い主語で従来のPoC中心の語り方を切り捨てた宣言です。ここで注目したいのは、Kurianがこの言葉を、Google Cloud自身が集めた1,302件の生成AIユースケースというデータと並べて語ったことです。この1,302という数字は、Google Cloudが世界中の顧客から集めた「本番で動いているAIユースケース」の積み上げであり、2024年時点の公式リストが数百件だったことを考えると、1年でおよそ倍に膨らんだ計算になります。
Kurianの言う「本番展開」は、単なるSaaSの一機能としてのAIではなく、モデル、データ、エージェント、セキュリティ、業務アプリを一つのスタックとして扱う発想に根ざしています。基調講演のなかで繰り返された「unified stack(統合スタック)」という表現は、Googleが長年検索、YouTube、Chrome、Androidで実現してきた垂直統合のアプローチを、そのままエンタープライズ向けのAI基盤にも持ち込むという宣言と読めます。ここで従来のクラウド観と決定的に違うのは、「ベストオブブリード(分野ごとに最良のサービスを組み合わせる)」思想との明確な線引きです。Kurianは、エージェント時代にはデータとモデルとセキュリティが密結合したスタックの方が結局は速く安全に動く、と主張しました。部分最適を積み上げるとエージェントが通るパイプが継ぎはぎになり、そこにセキュリティの穴と運用の摩擦が生まれる、という論旨です。
実運用75%という数字の背景には、Google Cloudの顧客が2024年から2025年にかけてAI投資を「予算の主戦場」に据え直した現実があります。Google自身のCapExは、2024年の525億ドルから、2025年は914億ドル、そして2026年は1,750億〜1,850億ドルへとジャンプする計画です。2024年から2026年までの2年間でおよそ3.5倍、単年で100兆円規模の通貨価値に近い投資が、AIのために動いていることになります。この規模の投資を回収するためには、パイロットを無限に続ける余裕はありません。Kurianが「パイロット期は終わった」と断言した裏側には、この投資回収の現実的な要請が間違いなく横たわっています。そしてこれは、日本の発注側企業にとっても無関係な話ではありません。Googleがこれだけの規模を一気に流し込んでくる以上、AI周辺のコストカーブは急速に下がり、同時にスタックの中心は「もう試す」から「もう動かす」にシフトします。乗り遅れる企業は、モデルやインフラではなく、意思決定の遅さによって競争から外れる時代に入ります。
Sundar Pichaiが示した「Googleの自己変革」
Sundar Pichaiのパートで最も強烈だったのは、Googleという会社自身が「エージェントで経営される組織」に脱皮しつつある、という生々しい描写でした。新規コードの75%がAI生成、と言われると、多くの人は「コーディング支援の延長でしょう」と受け取りがちです。しかしPichaiが描いたのはそれよりずっと先の話で、Planner、Orchestrator、Coderという3つの役割エージェントが、一つの機能開発をチームとして分担して進めているという運用モデルでした。Plannerが仕様と設計を整理し、Orchestratorがタスクを分解して他のエージェントや人間に割り当て、Coderが実装とテストを実行する、という役割分担です。人間のエンジニアは、従来のように最初の一行から書くのではなく、Plannerが出す設計を承認し、Coderが出した差分をレビューする立場に軸足が移ります。結果、同じ機能を作るのに必要なエンジニア工数が従来比で約6倍速になった、というのがGoogle社内の数字です。
この変化は、開発組織だけにとどまりません。Pichaiはマーケティング部門の例も引きました。キャンペーンのアイディエーションから、コピー、クリエイティブ、LP制作、配信設定、効果測定、改善までを、Gemini Enterpriseベースのマーケエージェントに任せる体制を整えた結果、制作のリードタイムが以前の30%にまで短縮された、と語っています。つまり、従来3日かかっていた施策の回し方が、約1日で一周するようになった計算です。サイクルタイムが3分の1になる、ということは、同じ期間に回せる施策数が3倍になることを意味します。経験的に、試行回数が3倍になれば学習曲線は指数的に速くなりますから、実際の競争力への寄与はさらに大きくなります。これを聞いて「それはGoogleの話だろう」と切り捨てるのは簡単ですが、私はむしろ逆だと考えています。世界で最も豊富な計算資源と人材を持つ企業でさえ、人間が書く時間を減らし、エージェントに仕事を渡す方向に振り切った、ということ自体が、他のすべての企業への強烈なメッセージだからです。
Pichaiが繰り返し使った「customer zero」という言葉にも注目しておきたいところです。「自分たちの技術に対して、我々は常に顧客番号ゼロであり続ける」という姿勢で、Googleは社内でGemini Enterpriseを先に動かし、そこで得た失敗や学びを外部に提供するモデルに組織を変えつつあります。従来のB2B SaaSの文化では、ベンダーは自社のプロダクトを「作って売る」立場でしたが、エージェント時代のベンダーはそれを「動かして鍛える」立場に変わります。Googleが社内の9万人以上のエンジニアに使わせ、マーケチームに投入し、さらには法務や人事、ファイナンスにまで展開して得たフィードバックは、そのまま外部顧客向けのモデル改善に反映されます。ここにあるのは、プロダクトとオペレーションが不可分になる新しいソフトウェア経済の姿です。経営者の視点で言えば、自社が同じ姿勢で自社のAIエージェントに接せられるかどうかが、5年後の差を決めます。本番環境で使い倒し、失敗も含めて自社の業務ナレッジに変換する。この一点が、単にGemini EnterpriseやZEROCKを「導入する」だけの企業と、エージェント前提経営に踏み込む企業の分岐点になります。
もう一つ押さえておくべき視点は、エンジニアリングの価値の再定義です。75%という数字は、残りの25%で人間が書いている、という話に見えますが、実態は違います。Pichaiの説明によれば、人間のエンジニアはレビュー、アーキテクチャ設計、倫理的な判断、ユーザー体験の設計、失敗時の原因究明に重心を移しています。言い換えると、人間がやるべき仕事が「書く」から「判断する」「繋ぐ」「責任を取る」に変わった、ということです。Antigravityのような次世代IDEや、Claude Code Skillsのようなエージェント型開発環境、Superpowersのようなプラグイン群が相次いで登場しているのも、この「人間の関与ポイントを再設計する」動きの表れです。詳しくはGoogleが発表したAntigravityとWorkspace CLIの記事でも掘り下げていますが、2026年の開発現場は、いつのまにか「エージェントがコードを書き、人間が意思決定をする」形に変わっています。
Gemini Enterprise 5レイヤーの完全解剖
Gemini Enterpriseは、一言で言えば「企業のAIオペレーティングシステム」です。Kurianと製品責任者のKarthik Narainは、これを5つのレイヤーで説明しました。下から、AIハイパーコンピュータ、エージェントデータクラウド、エージェントディフェンス、エージェントプラットフォーム、そしてエージェントアプリとタスクブックです。私は最初にこのスライドを見たとき、思わず「これは基盤系の下方統合と、ユーザー体験の上方統合を同じベンダーが一気にやろうとしている」と声を漏らしました。クラウドベンダーがアプリ層までも自社のエージェントで埋めに来る構図は、AWSやAzureの歴史的なポジションとは明確に異なるスタンスです。
最下層のAIハイパーコンピュータは、TPUとCPUとネットワークとストレージを、AIワークロード専用に設計したフルスタックの計算基盤です。ここがコストと性能の絶対値を決めるレイヤーで、次章で詳しく扱う新TPUと新ネットワークが中心になります。
その上に乗るエージェントデータクラウドは、BigQuery、Cloud Storage、各種データウェアハウスを束ねる「エージェントのための単一の事実基盤」です。注目すべきはKnowledge Catalogという新機能で、企業のスキーマとセマンティクスを動的なグラフとして表現し、エージェントが「このテーブルのこの列は、この業務のこの指標に対応する」と理解できるようにする仕組みです。Smart Storageは、ファイルの中身とメタデータをObject Context APIを通じてエージェントに渡すため、PDFやスライドの中身までエージェントが一次情報として参照できます。さらにCross-Cloud LakehouseはApache Iceberg形式でAWSやAzureのデータをコピーせずにクエリでき、Lightning Engine for Apache Sparkはオープンソース比4.5倍、主要競合比で2倍の価格性能を叩き出す、と発表されました。エージェントを動かすうえで最大のボトルネックはデータアクセスですから、この層の性能が実運用の滑らかさに直結します。TIMEWELLのエンタープライズAI「ZEROCK」も、GraphRAGと呼ぶ独自のグラフ探索で社内データの意味を扱う設計を取っています。考え方はKnowledge Catalogと近く、現場の「この資料のこの表現は何を指すのか」という文脈を失わずに回答するところに、日本企業特有の使いこなしの芽があります。
3層目のエージェントディフェンスは、後述するWiz買収の果実が最も色濃く出ているレイヤーです。AI Application Protection Platformを中核に、生成コードに対するインラインセキュリティフック、AIモデル/IDE拡張/外部MCPサーバーをすべて棚卸しするAI-BOM(AI Bill of Materials)、Agent IdentityとAgent Gatewayによるエージェント単位のゼロトラスト検証など、「エージェントが壊してくる」時代を前提とした守りの部品が揃いました。詳細は別章で扱いますが、この層が整備されていないまま他の層だけ進めると、たとえるなら屋根も壁もない家に高級家具を入れるようなことになります。
4層目のエージェントプラットフォームこそが、Gemini Enterprise Agent Platformと名付けられた中核です。これはVertex AIを進化させたもので、Agent StudioというローコードUIで非エンジニアでもエージェントを組めるようにしつつ、Agent Development Kit(ADK)でコード主導の開発もできるようにしています。実行時にはAgent Runtimeが数日にわたる状態保持を担い、Memory Bankが永続コンテキストを保持、Long-running agentsは人間の休日や夜間もタスクを進め続けます。ガバナンス側ではAgent Identityで各エージェントに身元を与え、Agent Registryで組織内のすべてのエージェントを棚卸しし、Agent Gatewayで通信を検証する。加えてAgent Simulation、Agent Evaluation、Agent Observabilityで、稼働前のテストから稼働後のログ解析まで可視化する、という構えです。ここまでくると、もはや「ツール」ではなく、企業内の従業員に対するHRシステムに近いと言っていい設計思想です。エージェントに身元を与え、役割を与え、育て、評価し、必要に応じて停止する仕組みが揃っているからです。
そして最上層にあるのがエージェントアプリとタスクブックです。Gemini Enterprise Appは、Workspaceを拡張した業務環境で、Ask Gemini in ChatやDeep Thinkなどの機能が乗ります。タスクブックというのは、経理月次締め、採用プロセス、顧客オンボーディング、輸出管理といった業務をテンプレート化し、その中に必要なエージェントとデータ接続と権限設計があらかじめ束ねられているものです。基調講演では、Microsoft 365との相互運用を明示しており、CanvasからOffice形式でエクスポートできるようになっているのも、既存のオフィス環境と競合せずに入り込む意図が読み取れます。
5レイヤーを縦で見ると、一つの思想が貫通しています。エージェントという新しい「従業員」を、安全かつ生産的に組織に招き入れるために、データの文脈、守り、役割、道具、振る舞いをすべて一気通貫で設計するという思想です。日本企業がこれまでクラウド移行で悩んできた「どのベンダーの、どの層を、どの順番で選ぶか」という問いは、このスタックの前では明らかに古びます。Gemini Enterpriseは、層ごとの選択肢を絞るかわりに、層間の連携で摩擦ゼロを目指す選択肢として提示されている、と理解するのが正確です。
新モデル群の戦略的位置づけ
モデル発表は控えめに見える一方、戦略的な意味は大きい構成でした。主役はGemini 3.1 Pro、Gemini 3.1 Flash Image(Nano Banana 2)、Veo 3.1 Lite、Lyria 3 Pro、そしてAnthropicのClaude Opus 4.7の新規サポートです。まずGemini 3.1 Proは、Googleが「複雑なワークフローの編成(complex workflow orchestration)」に最適化した、と強調している点が目を引きます。単発の問いに答えるのが得意なモデルではなく、複数のステップにまたがる長いタスクを、途中でツール呼び出しを挟みながら完遂することに特化している、というメッセージです。ここにはGoogleの明確な戦略意図があります。エージェント前提の世界では、モデル単体の知能ではなく、モデルがオーケストレーターとしてどこまで長い思考の鎖を安定してつなげるか、が価値を決めます。3.1 Proはそこに振り切った姿勢を示しました。
Gemini 3.1 Flash Image、通称Nano Banana 2は、マルチモーダルの軽量化路線の進化版です。画像理解と生成を低レイテンシで回せるため、エンドユーザーの操作にリアルタイムで反応する用途に向きます。Veo 3.1 LiteとLyria 3 Proは、それぞれ動画と音楽の生成モデルで、SynthIDと呼ぶ電子透かしと著作権保護を組み込んで提供されるのが特徴です。マーケティングや製造業の教育動画、エンタメ領域で、法的なリスクを抑えながら制作を回せる構えが整ったことを意味します。従来、生成AI動画は品質と同時に「権利関係の不透明さ」が導入ブロッカーでしたが、SynthIDと透かしの組み合わせで、企業が正式に運用できる下地ができつつあります。
そしてもう一つの注目点が、Anthropic Claude Opus 4.7がGemini Enterprise Agent Platformに第一級のパートナーモデルとして乗ったことです。これは「Geminiだけに閉じない」という宣言に他なりません。基調講演の解説でも、Karthik Narainが「お客様のタスクに最適なモデルを選べる自由を提供する」と明言していました。OpusシリーズはClaude Sonnet、Haikuと共に提供され、長文推論やコード生成、ツール選択の精度に強みがあります。Claude Code Skillsのような仕組みで開発現場に浸透していることを考えると(関連してClaude Code 4.5時代のSkillsに関する記事で詳しく扱っています)、Google側としても単一モデル主義では勝てないという現実認識があったと読み取れます。マルチモデルの時代に、ベンダーが「うちのモデルしか動かない」と主張することは、もはや顧客から選ばれない理由にしかなりません。
日本企業にとっての含意は二つあります。一つは、「どのモデルを選ぶか」よりも「タスクごとに最適なモデルをどう切り替えるか」が設計課題になるという点。契約書解析にはClaude Opus、顧客との対話にはGemini Flash、画像生成にはNano Banana 2、音楽制作にはLyria、という具合に、用途別にモデルを呼び分けるルーティングの設計が、アプリケーションの品質を決めます。もう一つは、透かしや監査ログといった「コンプライアンス配慮付きの生成」が当たり前になるという点。日本の上場企業ほど、生成物の来歴と権利状態が問われる場面が多く、SynthIDのような仕組みを早期に自社の生成コンテンツに組み込んでおくと、法務とマーケと営業の三者間の議論がはるかに軽くなります。
エージェントプラットフォーム技術の深層
Gemini Enterprise Agent Platformの技術構成は、Vertex AIを単に名称変更したものではありません。構築、拡張、統治、最適化という4つの動詞で整理された構造は、企業内で動くエージェントの全ライフサイクルを視野に入れた作りになっています。ここでの主役は、Agent Studio、Agent Runtime、Agent Identity、Memory Bank、Agent Simulation、そしてMCPサポートです。
Agent Studioは、ローコードのビジュアルインターフェースで、プロンプトの改善、ツール接続、分岐の定義、権限の付与を、非エンジニアがドラッグアンドドロップで行えます。同時に、Agent Development Kit(ADK)というコード主導の環境も用意されており、こちらはエンジニアがTypeScriptやPythonで精緻な制御を書けるようになっています。興味深いのは、両者が同じエージェント仕様を共有するように設計されていることです。つまり、現場のマーケターや企画担当がStudioで粗く作ったエージェントを、エンジニアがADKで精緻化し、そのまま本番に乗せる流れが成立します。Agent Runtimeは、マルチデイの状態保持が可能で、たとえば月次締めや四半期レポートのような長期タスクを、途中で休みを挟みつつ完遂できるようになりました。従来のPoC段階では、エージェントが数十秒のセッションで終わる設計が多く、長時間タスクは実現困難でしたが、Runtimeの再設計によって、エージェントが本当に「社員のように数日がかりで仕事をする」ようになったわけです。
Memory Bankは、エージェントに永続的なコンテキストを持たせる仕組みで、「昨日の会議で議論したA社の案件」や「先週の失敗から得た教訓」をエージェントが参照できます。ここが弱いエージェントは、毎回ゼロからのコンテキストで動くため、会話が噛み合わず、同じミスを繰り返す傾向がありました。Memory Bankを挟むことで、エージェントが組織学習の担い手になります。ガバナンス面ではAgent Identityがキーとなっていて、エージェント一つひとつにIDが付与され、どのシステムにアクセスしていいか、どんな権限で動いてよいかが制御されます。Agent Registryは組織内のすべてのエージェントの棚卸しを行い、Agent Gatewayはエージェント間の通信を検証します。これはゼロトラストの考え方を、人間の権限からエージェントの権限に拡張したもの、と言って差し支えありません。
最適化側では、Agent Simulationが稼働前のテスト環境を提供し、Agent Evaluationが継続的な品質評価、Agent Observabilityが実行ログと推論トレースの可視化を担います。エージェントの挙動が「なぜその結論を出したのか」を後追いで分析できる点が重要で、ここが不透明なままだと、現場も監査部門もエージェントを信用できません。Observabilityが整うことで、「稟議のこの一行を書いたのはどのエージェントか、どんな根拠で書いたか」を完全に辿れるようになります。
もう一つ決定的な変化が、Model Context Protocol(MCP)のネイティブサポートです。基調講演では、Google CloudとGoogle Workspaceのすべてのサービスが、単一のMCPエンドポイントを通じてエージェントから呼び出せる、と発表されました。MCPはAnthropicが2024年11月に発表した規格で、2025年12月にはLinux Foundation傘下のAgentic AI Foundationに寄贈され、OpenAI、Microsoft、AWS、Google、Cloudflareが賛同する業界標準になりました。2026年3月時点でアクティブMCPサーバーは1万を超え、月間のSDKダウンロードは9,700万件に達しています。Forresterは2026年に30%のエンタープライズアプリベンダーが独自MCPサーバーを公開する、と予測しています。Agent2Agent(A2A)プロトコルと組み合わせると、エージェントがツールを呼ぶ(MCP)一方で、エージェント同士が対話する(A2A)、という二層構造ができあがります。A2Aは2025年に50パートナーでスタートし、2026年時点で150組織が本番で稼働させています。Microsoft、AWS、Salesforce、SAP、ServiceNowがすべてA2A対応を宣言しており、SalesforceのAgentforceエージェントがGoogle Cloud上のVertex AIエージェントに仕事を渡し、さらにServiceNowエージェントがIT資産情報を返す、といった三社跨ぎの連携が実運用で動いている、というのが2026年春の現実です。
技術の深層をまとめると、Googleは「エージェントを作って動かす」だけではなく、「エージェントを身元とともに組織に迎え入れ、権限を与え、他社のエージェントとも協働させ、監査まで一気通貫で通す」仕組みを揃えてきた、と言えます。日本企業がAIエージェント導入で躓く最大の理由は、実はモデルでもツールでもなく、このガバナンスと可観測性の欠落です。Agent Identity、Registry、Gateway、Observabilityが揃ったプラットフォームを前提にすれば、情報システム部門と監査部門が合意形成できる下地がようやくできます。Claude Code Agent Teamsの記事でも触れていますが、エージェントをチームとして運用する発想はすでに開発現場で実証されており、基盤側もそれを受け止める準備が整いつつあります。
新TPU Ironwood・CPU AI・ネットワークのインパクト
インフラの発表は、経営層にとっては地味に映りがちですが、数年単位のコスト構造を動かす土台なので、ここを理解しておかないと経営判断の精度が落ちます。基調講演で示された主力は、第8世代TPUの「TPU 8t」と「TPU 8i」、Armベースの汎用CPU「Google Cloud Axion N4A」、NVIDIA Vera Rubin NVL72、ネットワークの「Virgo Network」、そしてストレージの「Google Cloud Managed Lustre」でした。
TPU 8tは学習特化のチップで、新設計のInter-Chip Interconnect(ICI)を搭載し、1スーパーポッドで最大9,600 TPUまで拡張可能、2ペタバイトの共有高帯域メモリを持ちます。第7世代のIronwood比で3倍の処理能力、ワットあたり最大2倍の効率です。Ironwood自体、2025年11月に発表された時点で、1チップあたり4,614 TFLOPs、1ポッド9,216チップで42.5 ExaFLOPS、1チップあたり192GBのHBM3E、1ポッドあたり1.77PBのHBM3Eメモリを持ち、TPU v5p比10倍、Trillium(v6e)比4倍以上の性能でした。それを3倍上回る8tの登場は、学習基盤の世代交代を意味します。
TPU 8iは推論特化で、Boardflyトポロジーにより1スーパーポッドで1,152 TPUを接続し、オンチップSRAMを前世代比3倍に増やし、専用のCollectives Acceleration Engineを搭載、推論の費用対性能を80%改善しました。推論というのは、モデルを訓練するよりも長く、継続的に回り続ける処理で、エージェントが24時間動く時代には「1日あたりのトークン単価」が経営コストを直撃します。80%のコスト改善というのは、言い換えると、エージェントを動かす費用が従来の5分の1から3分の1程度に下がる領域が出てくる、ということです。基調講演では「数百万のエージェントを同時に、コスト効率よく動かせる」という表現が使われましたが、これは単なる宣伝文句ではなく、TPU 8iのアーキテクチャが実際にそこを狙って設計されている、という意味に近いです。
Google Cloud Axion N4Aは、Arm命令セットに基づく汎用CPUで、AIワークロード以外の一般業務処理を低コストで担います。ここが整うと、フロントエンドやデータ前処理などを低コストのAxionで回し、学習や推論だけをTPUに寄せる、という組み合わせが現実的になります。さらに、NVIDIAとの協業としてVera Rubin NVL72がGoogle Cloudに載る予定であり、GPUを使いたい顧客も取り逃がさない構えです。NvidiaのH200もすでに利用可能で、TPUとGPUの両方から選べるマルチアクセラレーターの環境が整った、と言えます。
ネットワーク側のVirgo Networkは、スーパーポッドを越える帯域を2倍化し、ストレージのGoogle Cloud Managed Lustreは10 TB/sという業界最高クラスのスループットを提供します。学習や大規模推論のボトルネックは、しばしば計算ではなくI/Oと通信に現れますから、ネットワークとストレージをAI前提で刷新した意味は大きいです。
これらを合わせた結果として、Citadel Securitiesのような超精密な計算を要求する顧客が、クオンツリサーチ基盤をGoogle Cloudに移しました。Citadel Securitiesは世界有数のマーケットメーカーで、1日あたり4,000億ドル以上の取引を執行しています。同社はGoogle Cloudのエンジニアリングチームと共同で、ジョブ状態のGUI、パフォーマンスプロファイリング、効率モニタリングといった専用ツールを整備し、オンデマンドとプリエンプティブルハードウェアを戦略的に組み合わせて、計算コストを最適化しました。シード情報にもあった「2〜4倍高速、30%コスト削減」は、こうしたハードウェア最適化と専用ツール整備の合わせ技の結果です。日本の金融機関でもクオンツや市場リスク計算、非財務リスクの解析などでAIエージェント活用の機運が高まっていますから、同じ手触りで運用に乗せられるインフラが揃いつつある、と受け止めてよいと思います。
結局、経営者にとって押さえるべきは、AI前提のインフラが一段階進んだ、という事実です。クラウドの従量課金は価格競争が激しいと思われがちですが、TPU 8iのような専用チップが出てくると、同じワークロードでも8割のコスト差がつく世界が出現します。「クラウドベンダー、どこも大差ない」と言っていた時代は、2026年の今日、明らかに過去のものになりつつあります。
実運用事例から見える「エージェント経営」の輪郭
基調講演の後半で紹介された顧客事例の中から、特に示唆に富む5社を取り上げます。Walmart、Virgin Voyages、KPMG、NASA、Citadel Securitiesです。スマート照明のSignifyもGoogle Cloudの長期顧客として言及されました。Philips HueのブランドでおなじみのSignifyは、2014年のオープンソース化からわずか1年後にKubernetesを採用し、1日あたり2億トランザクション、うち1,800万の遠隔照明コマンドを処理するインフラをGKE上で運用しています。IoT機器とAIエージェントの接合点が、すでに消費者の生活のなかで稼働している事実は、AIエージェントが「オフィス業務の外」にも滲み出している証拠でもあります。
Walmartの事例は、現場のDXがどこまで進められるかの参考になります。同社は店舗スタッフ全員にPixel Foldを配布し、その上で動くGemini Enterprise経由のエージェントに、顧客からの質問対応、在庫照会、サプライチェーンの問題解決を任せ始めました。店舗スタッフは、エージェントとの対話を通じて「本日入荷分はどのトラックか」「カテゴリーマネージャーに連絡する必要があるか」といった判断を、現場で即座に下せるようになります。従来、本部と現場の間に何段階もの意思決定の壁があった業務が、エージェントを通じて一気にフラット化される、というのが本質的な変化です。日本の小売や製造業の現場でも、同じ「現場のAIエージェント化」が次の論点になるのは時間の問題でしょう。
Virgin Voyagesは、Roveyという名前のパーソナルコンシェルジュエージェントを船上で展開しました。Gemini EnterpriseとGoogle Distributed Cloud(オンプレミスや通信不安定な環境でGoogleスタックを動かす仕組み)の組み合わせで、船員は自然言語で乗客対応を行い、制作タイムラインを最大60%短縮したそうです。60%というのは、従来10日かかっていた制作物が4日で完成する計算です。オフライン性の高い環境でもエージェントが動くという事実は、日本の工場、建設現場、船舶、航空機内といった「クラウド常時接続が難しい現場」でも、同じ体験が設計可能であることを意味します。
KPMGは、KPMG LawというGoogle AIを統合した新しいリーガルファームを立ち上げ、同社の社内業務にもAgentspaceを導入しています。さらに、A2Aプロトコルの設計と実装にサービスパートナーとして貢献しており、エージェント間の相互運用性という業界課題の当事者になっています。コンサルティングや監査法人がエージェント運用のハブになる構図は、日本の大手SIerや監査法人にとっても見逃せないシグナルです。エージェントを「提案する側」から「自ら運用する側」に変わった組織だけが、次の時代の競争軸を握ります。
NASAの事例は、実運用の最前線を象徴的に示します。月有人ミッション「Artemis II」の主要な要素で、Gemini Enterpriseのエージェントが活用されている、と発表されました。宇宙ミッションという、失敗が許されない環境で、エージェントが実戦投入されている事実は、技術成熟度の客観的な指標として極めて重い意味を持ちます。ミッションクリティカルな領域で運用できるということは、品質の信頼性、ガバナンス、観測可能性のすべてが、ある水準を超えた、という証拠だからです。
Citadel Securitiesは前章でも触れましたが、エージェント経営の観点から再度整理しておきます。同社は1日4,000億ドル規模の取引を処理するマーケットメーカーで、クオンツ研究のスピードと精度が事業成果に直結します。Google Cloudとの協業で、2〜4倍の高速化と30%のコスト削減を実現したと伝えられていますが、単にインフラを入れ替えただけではなく、社内のリサーチプロセスそのものをクラウドとエージェント前提に作り直した、という点が本質です。さらに同社は、Googleの機械学習パフォーマンススペシャリストを自社に招いて、長期的にこの基盤を進化させる体制を組んでいます。ベンダーから買うのではなく、ベンダーを自社の一部に取り込むという姿勢です。日本企業がAIエージェント導入で差を付けるなら、ここまで踏み込めるかどうかが分岐点になると私は考えます。
加えて、ShoppingエージェントとFood orderingエージェントが「Gemini Enterprise for Customer Experience」として発表された点も見逃せません。Omnichannel Gatewayが、テキストチャット、音声、モバイルアプリ、ウェブ、電話、店頭などのチャネルを跨いでコンテキストを維持しながらエージェントを動かす構造になっています。顧客が朝のメールで問い合わせ、昼の電話で続きを話し、夜のアプリで決済する、という動線が、人間の担当者を跨がずにエージェント側で一貫性を持って扱える世界です。日本のカスタマーサービスがここまでたどり着くには、データ統合と社内の責任範囲の再設計が不可欠で、これは情報システム部門だけの問題ではなく、明確に経営マターです。
AIエージェント時代の新しいセキュリティ観
基調講演のなかで、私が最も背筋を伸ばした瞬間が、Francis deSouzaのセキュリティパートでした。Wiz買収、Agentic Defense、M-Trends 2026レポートの数値、の三つがセットで示され、「エージェントが動く世界はセキュリティの前提がまるごと変わる」という厳しい現実が突き付けられました。Googleは2025年3月にWizを320億ドル(約4.8兆円相当)で買収することに合意し、2026年3月に買収を完了させました。Google史上最大の買収です。Wizはクラウドとコンテナ、AI基盤の脆弱性を横断的に管理するプラットフォームで、2025年にARR 10億ドルを超えた後も成長を続けていました。
M-Trends 2026レポートのデータで衝撃的だったのは、Mean Time to Exploit、つまり脆弱性が公開されてから悪用されるまでの平均時間が「マイナス7日」だという数字です。つまり、パッチが出る前にゼロデイとして悪用されることが、もはや例外ではなく平均的な現実になった、ということです。AIが脆弱性発見と悪用コード生成を高速化しているため、攻撃側のサイクルが圧倒的に短くなりました。React2Shellインシデントでは、脆弱性公開から約48時間で暗号資産マイナーが展開されたと報告されています。Google Threat Intelligenceは、ダークウェブでLLMを使った悪用コード生成サービスがすでに商用化されている、とも指摘しました。
こうした背景のもと、Agentic Defenseには三つの新エージェントが投入されました。Threat Hunting Agentは新規の攻撃パターンを能動的にハントし、Detection Engineering Agentは検知ルールのギャップを特定して自動で検知ルールを生成し、Third-Party Context Agentは外部のコンテキストデータで既存のワークフローを補完します。この3エージェントが、Wizの資産とともにAI Application Protection Platformを形成し、エージェントが組織内で自律的に動くことを前提としたゼロトラスト型の防御層を担います。さらに、reCAPTCHAの進化版であるGoogle Cloud Fraud Defenseが一般提供され、AI-BOM(AI Bill of Materials)が導入された意味も大きいです。AI-BOMは、企業が使っているAIフレームワーク、モデル、IDE拡張、外部MCPサーバーを棚卸しし、サプライチェーン上のリスクを可視化する仕組みです。従来のSBOM(ソフトウェア部品表)をAI時代に拡張したものと理解できます。
セキュリティ運用の現場で、基調講演のデモが示した具体的な数字がさらにインパクトでした。脅威の引き渡しから解析完了までを22秒、SOC(セキュリティオペレーションセンター)での対応時間を30分から60秒へ、という短縮です。これは人間のアナリストだけでは到底実現できない速度で、エージェントによる一次トリアージがもはや必須になりつつあることを示します。日本企業でも、SOC業務を外部委託している会社は多いですが、委託先がAIエージェントを取り入れているかどうかで、実質的なレスポンスタイムが秒と分の違いになります。攻守の両面でAIエージェントが主力兵器になった今、セキュリティの打ち手を「保険」ではなく「事業運営の心臓部」として見直す局面に入りました。
経営者が取るべき姿勢は明快です。第一に、攻撃側のスピードが人間の対応速度を超えた事実を直視すること。第二に、自社が使うAIエージェントとそれらが触るデータの全貌を棚卸しすること。第三に、エージェント単位で身元と権限を管理する仕組みを導入すること。この三つは、Gemini EnterpriseのAgent Identityや、ZEROCKのような国内サーバー運用を前提にしたエンタープライズAIを選ぶ際のチェックリストにもなります。TIMEWELLの「ZEROCK」は、AWS国内リージョンで完結するエンタープライズAIとして、ナレッジ統制、プロンプト統制、監査ログの可視化を重視して設計しています。グローバルな潮流を押さえつつ、日本のデータ保護要件に合致した運用設計を、最初から作り込める点が強みです。
日本企業はどう読み替えるべきか
ここまでの内容を踏まえ、日本企業の経営者は何を意思決定すべきか、私の立場から率直に述べます。先に結論を書きます。もうAIエージェントをやらない理由は、経営判断として成立しません。「試験段階だから様子を見る」「人材がいないから後回し」「セキュリティが心配だから止める」という三つの定番の言い訳は、2026年の春を境にすべて論拠を失いました。試験段階は終わり、人材不足を前提にしたエージェントが整備され、セキュリティはむしろエージェントを使うほうが速い世界に入ったからです。
第一に、試験段階が終わった、という点について。Google Cloud顧客の75%が本番でAIを回し、Agent2Agentで150組織が本番運用し、Google自身の新規コードの75%がAI生成になった事実は、個別企業の都合を超えた現実です。業界平均が実運用に切り替わった以上、「うちはまだPoC中です」は、業界平均からの遅延を自社で公表しているようなものです。競合が先行して顧客とデータを取り、エージェント経由の業務改善を積み上げる間、ベンチマークが永久にずれていきます。
第二に、人材不足の問題について。これはむしろ逆の論点が立ちます。AIエージェントを入れないほうが、人材不足は深刻化します。日経新聞も伝えているように、2026年は日本企業にとってAIエージェントが試験運用から脱却し、ROIを生み出す「実行」の年です。8割の企業がAIエージェント導入を優先課題と答えている一方、人材がいないから動けないと言っている間に、先行企業は「エージェントが担う業務」と「人間が担う業務」の境界線を引き直し、人間を残すべき領域に人材を集中させています。Googleが社内でPlanner/Orchestrator/Coderにエンジニアの仕事を分解したように、日本企業も経理、法務、営業支援、人事で「エージェントに渡せる仕事」を特定し、そこから空いた人員で意思決定と顧客接点に振り向ける。これが2026年以降の健全な人員設計です。
第三に、セキュリティへの不安。ここは逆説的ですが、エージェントを使わないことが最大のリスクになりました。Mean Time to Exploitがマイナス7日という世界では、エージェントを使った自動検知と対応がなければ、そもそも攻撃に間に合いません。Google CloudのAgentic DefenseやWizの統合、ZEROCKのようなGraphRAGベースのナレッジ統制を組み合わせれば、日本企業の監査要件を満たしながら、攻撃側のAIに対抗する守りのAIを運用することが可能です。重要なのは、守るための道具としてエージェントを理解することであり、「エージェントを使うことが危険」という古い発想に立ち続けることではありません。
もう一つ強調したいのが、日本企業ならではの勝ち筋です。特定領域のエージェント、具体的には商慣習や業界規制、日本語の微妙なニュアンスが効く領域では、日本企業のほうが海外大手より優位です。日経の論説でも同じ指摘がありますが、汎用モデルの開発競争に挑む必要はなく、自社の業務知識をエージェントに注ぎ込み、特化型として運用する方向に振り切ることが、グローバルプレイヤーに対抗する最短ルートです。たとえば輸出管理の領域であれば、経産省基準と商品分類のノウハウを持つ企業が、国内に閉じたエージェントとして「TRAFEED」のような形で提供すれば、海外のベンダーには真似のできない価値になります。金融規制対応、IFRS対応、労務管理、人事評価、コンプラ教育、医療文書整理、製造の品質文書など、日本語と商習慣が強く効く領域は多岐にわたります。これらは、汎用エージェントに丸投げするより、自社のナレッジと特化型エージェントを組み合わせるほうが、精度もガバナンスも段違いになります。
最後に、導入の順序設計について触れておきます。エージェント前提経営は、いきなり全社規模で始めるものではありません。私たちTIMEWELLが提供する「WARP」は、WARP/WARP NEXT/WARP BASICの3プログラムで、月次更新型のAIコンサルティングとして、経営層と現場の両方に伴走する形をとっています。まず小さく、特定の業務プロセス、たとえば請求書処理、顧客問い合わせ、社内稟議、契約レビューなどで、エージェントを一つ動かすところから始める。そこで得たガバナンス、監査、観測のパターンを水平展開する。次第にAgent Identity、Registry、Gatewayに相当する自社標準を定め、最後にAgent Marketplaceや外部のエージェントと相互運用させる。この順序を守ることで、混乱を最小にしながら、確実にエージェント前提の経営体質に移行できます。「明日からすべて変えなければいけない」ではなく、「来週、一つめのエージェントを本番に乗せられるか」が、最初に問うべき質問です。
これから3年の景色と、明日の一手
Google Cloud Next 2025は、技術カンファレンスの枠を超えて、「経営の前提が書き換わった」ことを公式に宣言する場になりました。Thomas Kurianの「パイロット期は終わった」という言葉は、派手なマーケティング用語ではなく、数字と事実に裏打ちされた現状認識です。Google自身がCapExを倍々で増やし、Wizを320億ドルで買収し、新規コードの75%をAIに書かせている以上、この潮流は止まりません。Gartnerが予測する「2026年にエンタープライズアプリの40%がタスク特化エージェントを搭載する」という数字も、もはや未来予測ではなく、2026年末には現実の過去形になっているでしょう。McKinseyの「AIエージェントは年間2.6〜4.4兆ドルの経済価値を生む」という試算も、日本円にして毎年400〜600兆円級の市場再配分が進む、と読み替えれば、日本企業にとっての好機と危機が同時に立ち上がっている状況です。
2026年の残りの時間で、私たちが日本企業と向き合うときに問いかけたいのは、次の三つです。自社の業務のうち、来週エージェントに任せられる最小単位はどこですか。そのエージェントを動かすデータ、モデル、セキュリティ、責任範囲は誰が設計しますか。そして、エージェントが半年後に稼働し続けていたとき、元々その仕事をしていた人は、何に時間を使うべきですか。三つ目の問いに、経営者として誠実に答えられる会社だけが、エージェント前提経営の果実を本当の意味で受け取れます。
基盤や技術の情報が氾濫するなかで、本当の差を生むのは、意思決定の早さとコンテキストの深さです。TIMEWELLの「ZEROCK」と「WARP」は、まさにその二つを同時に担う設計になっています。ZEROCKはGraphRAGで御社のナレッジと業務文脈をエージェントに引き渡し、WARPは月次で経営判断と運用改善を並走させます。「もうやらない理由がない」時代に、「もう始めている」側に立つためには、最初の一手をできるだけ早く、できるだけ小さく、できるだけ学びの濃い形で打つことです。気になる方は、ぜひお問い合わせフォームから具体のご相談をお寄せください。私たちは、同じ2026年を見ている経営者の皆さまと、次の3年の景色をつくっていきたいと思っています。
参考文献
- Google Cloud Blog『Next '26 day 1 recap』 https://cloud.google.com/blog/topics/google-cloud-next/next26-day-1-recap
- Google Cloud Blog『Introducing Gemini Enterprise Agent Platform』 https://cloud.google.com/blog/products/ai-machine-learning/introducing-gemini-enterprise-agent-platform
- Capacity Global『Google Cloud declares the pilot era over as agentic AI takes centre stage at NEXT 2026』 https://capacityglobal.com/news/google-cloud-declares-pilot-era-over/
- Google Cloud Blog『10 industry leaders building the agentic enterprise with Google Cloud』 https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/cloud-next-2026-customer-round-up/
- Stratechery『An Interview with Google Cloud CEO Thomas Kurian About the Agentic Moment』 https://stratechery.com/2026/an-interview-with-google-cloud-ceo-thomas-kurian-about-the-agentic-moment/
- Google Blog『Ironwood: The first Google TPU for the age of inference』 https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/ironwood-tpu-age-of-inference/
- TechCrunch『Google wraps up $32B acquisition of cloud cybersecurity startup Wiz』 https://techcrunch.com/2026/03/11/google-completes-32b-acquisition-of-wiz/
- Google Cloud Blog『Welcoming Wiz to Google Cloud』 https://cloud.google.com/blog/products/identity-security/google-completes-acquisition-of-wiz
- Google Cloud Blog『M-Trends 2026: Data, Insights, and Strategies From the Frontlines』 https://cloud.google.com/blog/topics/threat-intelligence/m-trends-2026
- Gartner『Gartner Predicts 40% of Enterprise Apps Will Feature Task-Specific AI Agents by 2026』 https://www.gartner.com/en/newsroom/press-releases/2025-08-26-gartner-predicts-40-percent-of-enterprise-apps-will-feature-task-specific-ai-agents-by-2026-up-from-less-than-5-percent-in-2025
- SiliconANGLE『Maximizing Gemini: Google Cloud makes its bid to build the operating system for enterprise AI』 https://siliconangle.com/2026/04/22/maximizing-gemini-google-cloud-makes-bid-build-operating-system-enterprise-ai/
- Constellation Research『Google Cloud presses full-stack AI edge with new TPUs, Agentic Data Cloud, Gemini Enterprise Agent Platform』 https://www.constellationr.com/insights/news/google-cloud-presses-full-stack-ai-edge-new-tpus-agentic-data-cloud-gemini-enterprise
- The Register『Google says it has all the answers for AI agent sprawl』 https://www.theregister.com/2026/04/22/google_enterprise
- PR Newswire『A2A Protocol Surpasses 150 Organizations』 https://www.prnewswire.com/news-releases/a2a-protocol-surpasses-150-organizations-lands-in-major-cloud-platforms-and-sees-enterprise-production-use-in-first-year-302737641.html
- Fortune『Alphabet plans record $185 billion AI spending』 https://fortune.com/2026/02/04/alphabet-google-ai-spending-supply-constraints/
- Anthropic『Donating the Model Context Protocol and establishing the Agentic AI Foundation』 https://www.anthropic.com/news/donating-the-model-context-protocol-and-establishing-of-the-agentic-ai-foundation
- Google Cloud『How Citadel Securities reimagines quantitative research on the cloud』 https://cloud.google.com/transform/citadel-securities-reimagine-quantitative-reseach-cloud-scale-speed
- 日本経済新聞『2026年はAIエージェントが日本企業の利益に本格貢献する年に』 https://www.nikkei.com/article/DGXZQOUB16BQ90W5A211C2000000/
- EnterpriseZine『2026年はAIエージェント「実行」の年へ UiPathが説く、7つのトレンドと日本企業の勝ち筋』 https://enterprisezine.jp/article/detail/23596
- The Next Web『Google Cloud Next 2026: AI agents, A2A protocol, Workspace Studio, and the full-stack bet against OpenAI and Anthropic』 https://thenextweb.com/news/google-cloud-next-ai-agents-agentic-era
