株式会社TIMEWELLの濱本隆太です。
連休が明けたばかりの2026年5月1日、経済産業省のサイトに静かに一本のプレスリリースが出ました。「高性能AIへの対応に関して赤澤経済産業大臣が重要インフラ事業者との意見交換を実施しました」[^1]。電力、ガス、化学、クレジット、石油の各業界から24社が呼ばれ、議題は「ソフトウェアの脆弱性発見について高い能力を有するAIの開発が進んでいる状況」を踏まえた、重要インフラの守りをどう設計するかでした。同じ4月にはNISTがAI RMFの「Critical Infrastructure Profile」コンセプトノートを公表しています[^2]。エンタープライズAIの世界で進んでいる議論の重心が、ふたたび「重要インフラ」と「規制業界」へと寄ってきた、と感じた一週間でした。
私は普段、ZEROCKというエンタープライズAIを担当しているので、電力会社の方や金融機関の方とお話しする機会が多いのですが、ここ数か月で問い合わせのトーンが明確に変わりました。「便利そうだから入れたい」ではなく、「規制当局からこういう問い合わせが来始めたので、それに耐える設計を一緒に考えてほしい」という相談です。今回はその空気の正体を整理しておきたいと思います。
2026年5月に動いた「重要インフラ×AI」の議論
赤澤大臣の意見交換は、政府として初めて重要インフラ事業者に「高性能AI」を文字通り正面の議題として投げかけたという意味で、節目になる出来事でした。プレスによれば、対応の鍵として赤澤大臣が強調したのは三点です。組織のトップによる主導、脆弱性情報の早期把握と対応、そしてゼロトラストへの移行[^1]。この三つが揃えば「相当程度リスクを抑えることが出来る」と踏み込んだ発言があったと報じられています。
参加事業者の構成も注目どころです。電気事業連合会、送配電網協議会、日本ガス協会、石油化学工業協会、日本クレジット協会、石油連盟。社会インフラそのものを支える業界団体が一堂に呼ばれ、特定の業種の問題ではなく横断課題として議論が始まりました。同じ5月の頭にはデジタル庁の政府生成AI基盤「Government AI(源内、GENNAI)」が、各府省庁の約18万人規模での大規模パイロットに移行しています[^3][^4]。政府自身がAIを業務に組み込む工程に入ったタイミングで、ライフラインを担う事業者に「あなたたちはどうしますか」と問いかけた、と読むことができます。
私の目線では、これは「AI事業者ガイドライン1.2版」と「個人情報保護法改正案」のあいだに走った補助線でもあります。経産省・総務省は2026年3月31日に「AI事業者ガイドライン(第1.2版)」を公表し、AIエージェントやフィジカルAIへの対応を大幅に拡充しました[^5]。続けて政府は4月7日に個人情報保護法改正案を閣議決定し、AI開発・統計目的の個人情報利活用を緩める一方で、課徴金制度を新設して執行を強化する方針を打ち出しました[^6][^7]。柔らかい運用ガイドラインと、厳しい法執行と、業界別の対話、という三方向からAIガバナンスの網が一気に張られた格好です。重要インフラの意見交換は、その三方向が結節する場所に置かれています。
AISIのアクティビティも忘れてはいけません。AIセーフティ・インスティテュート(AISI)は2024年2月にIPA配下で設立されて以来、評価指標の独立策定とレッドチーミング手法の整備を進めており、2026年3月のWG報告会では物理AI・AIエージェントを評価対象に含める方針が共有されました[^8]。「日本としての安全性評価の物差し」を持つ努力が続いています。重要インフラとの意見交換は、その物差しを実装側に当てていく前段とも読めます。
日米のフレームワーク差分(経産省 vs NIST RMF)
米国側に視点を移します。NISTは2026年4月7日付で「Concept Note: AI RMF Profile on Trustworthy AI in Critical Infrastructure」を公開しました[^2][^9]。AI RMFは2023年1月に初版が出た後、2024年にGenerative AI Profileが追加されており、今回の重要インフラ向けプロファイルはそれと並列する「業界横断プロファイル」の第二弾です。対象セクターはエネルギー、水、医療、金融サービスを中核に据え、IT、OT、産業制御システム(ICS)にまたがるAI機能のリスク管理に焦点を当てると明記されています。Community of Interestを立ち上げ、産業界・規制当局・学界・政策コミュニティからの意見を反映させながら策定する方針も示されました。
経産省の重要インフラ意見交換と、NISTのコンセプトノート。どちらも同じ4〜5月の出来事ですが、性格は異なります。経産省側は、ガイドラインや法令を背景に持つ国が「業界対話」で実態把握と方針共有を行う形。NIST側は、AI RMF(任意の枠組み)に新しい「プロファイル」を一枚足し、コミュニティで磨くプロセスを設計する形です。どちらが優れているという話ではなく、補完関係にあると私は捉えています。日本企業がグローバルでAIを売る/買うときには、両方の地図を持っておかないと、契約交渉で必要な専門用語が噛み合いません。
両者の差分で実務的に重要なのは三つです。第一に「人間関与(Human Oversight)」の位置づけ。NIST RMFのGovern/Map/Measure/Manage四機能のうち、Mapに人間関与のシナリオ定義が組み込まれます。AI事業者ガイドライン1.2版でも人間関与は強調されていますが、エージェント外部アクション時のHuman-in-the-Loopが共通指針レベルで明文化された点が大きい[^5]。第二に「物理影響」の扱い。NISTのプロファイルは「AI-enabled decisions have physical-world safety consequences」と明言しており、ICSやOTの停止・誤作動リスクを正面に置きます。日本側はAI事業者ガイドラインの別添(チェックリスト)に断片的に入っている段階で、業界別の安全基準と接続する作業がこれから本格化します。第三に「サプライチェーン」。日本側は外為法・経済安全保障推進法と結合し、米国側はNIST SP800-218A(Secure Software Development Framework)と接続する設計です。同じ「サプライヤーリスク」でも参照する標準が違うため、契約書には両標準の取り扱いを書き分ける必要があります。
EU側も同時並行で動いています。欧州委員会は2026年5月8日に「Article 50 透明性義務に関する実施ガイドライン草案」を公表し、6月3日までのパブコメに付しました[^10]。同月7日には欧州議会・理事会がDigital Omnibus on AIに政治合意し、汎用AIへの移行措置として2026年8月2日適用開始のうちジェネレーティブAIプロバイダーには12月2日までの猶予を与える方向で調整しています[^11]。重要インフラに直結する条文ではないものの、EU市場で重要インフラ向けAIを売るときの透明性表示と契約条項に直接効いてきます。日米欧それぞれの規制を一枚の表に並べておかないと、グローバル提案書はもう書けません。
規制業界が押さえる5つの統制論点
ここからが本題です。規制業界向けエンタープライズAIで、現場が押さえるべき統制論点を私は次の五つに整理しています。理屈で並べたものではなく、実際にクライアントの監査対応や契約交渉で繰り返し問われてきた項目を、現場経験で五つに削った結果です。
1. モデル供給者の評価と契約上の責任分担
最初の関門はモデルそのものの素性です。OpenAI、Anthropic、Google、AWS Bedrock、Microsoft Azure OpenAIなど主要モデルの選定では、(a)学習データの法的素性、(b)モデルの脆弱性開示プロセス、(c)Indemnification条項の範囲、(d)サブプロセッサの公開リスト、(e)規制当局からのデータ開示要求への対応——の五つを最低限の評価軸にします。AI事業者ガイドライン1.2版は「AI開発者・提供者・利用者」の3区分で責任を整理していますが、規制業界では一社の中で複数区分を兼ねるケースが普通で、契約書はその重なりを前提に組まないと隙間が出来ます[^5]。NIST RMFのGovern機能はこの責任分担を文書化することを求めており、日米どちらの規制でも逃げ場がない論点です。
2. 社内ナレッジを学習に使わせない閉域・国内サーバー運用
電力・ガス・金融の方々から最も頻繁に聞かれるのが「うちのデータが学習に使われないと、本当に証明できるのか」という問いです。答えは、契約条項とアーキテクチャの二段で示すしかありません。契約条項は前述の通り。アーキテクチャ側では、推論時にプロンプト・コンテキスト・出力が日本国内のVPCから外に出ない構成と、データレジデンシー証跡をAWS Artifactなどで取得できる体制が要件になります。Government AI源内が国内国産LLMを含む7つのモデルを選定したのも、政府として「国内で完結する選択肢を確保しておく」という意思表示です[^4]。私はクライアントには、まず「データフロー図」を描いて、外部に出る矢印が一本でも残っていないかを毎四半期チェックする運用を勧めています。
3. プロンプト・出力の改ざん防止監査ログ
意外と抜け落ちるのが、プロンプトと出力の改ざん防止ログです。AIに「やらせた」記録を、誰が・いつ・どのプロンプトで・どの出力を得たか、改ざんできない形で7年程度保存する。これがないと、後から「言った言わない」の議論になり、規制当局の調査で詰みます。NIST RMFのManage機能は監査トレイルの保全を明確に要求しており、AI事業者ガイドライン1.2版の別添にもログ管理のチェックリストが入っています[^5]。技術的にはWORM(Write Once Read Many)型ストレージ+ハッシュチェーン+アクセスコントロールの組み合わせで実装します。重要インフラ事業者の監査では、このログの完全性証明を「年に一度、第三者監査を入れる」ところまで求められ始めました。
4. 生成物の人間レビュー必須化と監査トレイル
Human-in-the-Loopは抽象論として語られがちですが、現場では「どの工程で、誰が、何を、何分以内にレビューするか」を業務SOPに落とし込まないと機能しません。AI事業者ガイドライン1.2版はAIエージェントの外部アクション(メール送信、システム操作、決済など)でHuman-in-the-Loopを義務化した点が大きな変化です[^5]。例えば送配電網の異常検知AIが「変電所のリレーを開閉する」アクションを取る場面では、人間オペレータの承認なしには発動しない設計が必須になります。レビューの記録は3で述べた監査ログと統合し、「誰がいつ承認したか」が時系列で再現できる必要があります。
5. Disaster Recoveryと法令違反時の停止プロセス
最後が、有事の停止プロセスです。AIが暴走したとき、規制当局から命令が出たとき、サプライヤーが脆弱性を開示したときに、どの順序で、どの権限者が、何分以内に停止できるか。経産省の意見交換で赤澤大臣が「組織のトップによる主導」を強調したのは、まさにこの「最後のスイッチを誰が握っているか」の話だと私は理解しています[^1]。停止プロセスはBCP(事業継続計画)の章として独立させ、年に2回以上、机上演習で訓練するのが望ましい運用です。NIST RMFのManage機能も同じことを言っており、日米いずれの基準でも避けて通れません。
この五つは抽象論ではなく、ZEROCKの導入支援で必ずクライアントと一緒に作るドキュメントの章立てそのものです。詳細をお求めの方はZEROCKのサービス資料をお問い合わせフォームからご請求ください。「規制業界向け統制論点チェックリスト」を別添でお渡ししています。
Government AI Gennaiと民間エンタープライズAIの整合
ここで政府側の動きをもう一段見ておきます。デジタル庁は2026年4月24日にGovernment AI「源内(Gennai)」をGitHubでOSSとして公開しました[^4][^12]。Release 1.0は2026年1月に一部省庁で試験運用が始まり、Release 2.0として2026年5月から年度末まで全府省庁約18万人を対象とした大規模パイロットに入っています[^3]。Diet response search AI、法制研究支援AIなど20以上のAIアプリケーションが含まれます。
源内が国産LLMを7件選定し、AWS国内リージョン上で構築されている点は、規制業界がエンタープライズAIを評価するときの「お手本」になります。「政府はこういう構成で組んでいる」という事実は、社内稟議で動かない決裁者を動かす材料になります。経産省のリリースが赤澤大臣からのトップダウンメッセージだったように、源内のオープン化はデジタル庁から自治体・民間へのボトムアップ波及を狙ったものです。両方が組み合わさったとき、重要インフラ事業者の経営層が「うちもそろそろ国内サーバーのエンタープライズAIを本気で構えなければ」と判断する局面が増えると私は見ています。
源内のOSS化に対する民間側の応答は二つに分かれそうです。ひとつは、源内をそのまま自治体導入する流れ。もうひとつは、源内と互換性のある独自エンタープライズAIを構える流れ。重要インフラ事業者は後者を選ぶケースが多くなるはずです。理由は単純で、政府向けに最適化された源内よりも、自社業界の規制とSLAに最適化されたエンタープライズAIのほうが、運用責任を取りやすいからです。
ZEROCKで国内サーバー・GraphRAG・統制ログを揃える
最後にZEROCKの設計思想を一段おまけで書きます。先に挙げた五つの統制論点を一つの製品で揃えるのは設計上の難所で、ZEROCKはそのために三本の柱を立てています。AWS国内サーバーでの閉域運用、GraphRAGによるナレッジ統制、そしてプロンプトライブラリと監査ログの統合です。
AWS国内サーバーは、東京・大阪リージョンの組み合わせでDisaster Recoveryを構成し、データレジデンシー証跡をAWS Artifactで都度発行できる構成にしています。VPC内でモデル推論を完結させ、推論用エンドポイントが外部に向かないよう、PrivateLinkとセキュリティグループで二重に閉じる設計が標準です。論点(2)の閉域要件をクリアし、論点(5)のDR訓練もリージョン切替の演習として年2回実施できます。
GraphRAGは、社内ドキュメントと業務上の知識をグラフ構造で結合し、検索拡張生成(RAG)に乗せる手法です。単純なベクトルRAGよりも文脈の保持力が高く、規制業界が必要とする「根拠の追跡可能性」が桁違いに強くなります。生成物の根拠ノードを表示できるため、論点(4)の人間レビューが格段に楽になります。「この回答はこのナレッジから出ました」を一画面で示せると、レビュアーの認知負荷が大幅に下がるのです。
プロンプトライブラリは、社内で承認されたプロンプトの集合をテンプレート化し、改変履歴をすべて記録する仕組みです。プロンプトと出力をペアでハッシュチェーン化し、改ざんを防ぐ。論点(3)の監査ログ要件を、技術側でデフォルト満たす設計になっています。経産省AI事業者ガイドライン1.2版の別添にあるログ管理チェックリスト[^5]と、NIST RMFのManage機能要求事項[^2]の両方を、設計レベルで満たすことを最初から織り込んでいます。
論点(1)のモデル供給者評価については、ZEROCKは複数モデル(Anthropic Claude、OpenAI GPT、Google Gemini、Amazon Nova、国産モデル)を切替可能なゲートウェイ構造を持っており、契約上の責任分担を業務ユースケースごとに使い分けられます。「外部公開向けの問い合わせ応答」と「社内機微情報を扱う検索」で別モデルを使い、それぞれに別の責任分担条項を当てる、という運用がそのまま実装できます。
「規制業界×エンタープライズAIをZEROCKで構える」を本気で検討される方は、/contact?product=zerockからお問い合わせください。製品紹介のスライドだけでなく、ここで挙げた五つの統制論点に対するZEROCKの実装回答(アーキテクチャ図、契約条項テンプレート、監査ログ仕様)を一式お渡ししています。AIコンサルティング側からのアプローチを希望される場合はWARP、輸出管理AIエージェントが必要な場合は経済安全保障の文脈でTRAFEEDもご検討いただけます。
重要インフラ事業者の経営層が「AIをどう使うか」ではなく「AIをどう統制するか」を議題にし始めた2026年5月。その入口に、この記事が地図として機能すれば嬉しく思います。
[^1]: 経済産業省「高性能AIへの対応に関して赤澤経済産業大臣が重要インフラ事業者との意見交換を実施しました」(2026年5月1日) https://www.meti.go.jp/press/2026/05/20260501001/20260501001.html [^2]: NIST「Concept Note: AI RMF Profile on Trustworthy AI in Critical Infrastructure」(2026年4月7日) https://www.nist.gov/programs-projects/concept-note-ai-rmf-profile-trustworthy-ai-critical-infrastructure [^3]: デジタル庁「Launch of Large-Scale Pilot Project of Government AI 'GENNAI' targeting 180,000 Employees across all Ministries and Agencies」 https://www.digital.go.jp/en/news/2d69c287-2897-46d8-a28f-ea5a1fc9bce9 [^4]: デジタル庁「Government AI 'GENAI'」 https://www.digital.go.jp/en/policies/genai [^5]: 経済産業省・総務省「AI事業者ガイドライン(第1.2版)」(2026年3月31日) https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_1.pdf [^6]: 個人情報保護委員会「『個人情報の保護に関する法律等の一部を改正する法律案』の閣議決定について」(2026年4月7日) https://www.ppc.go.jp/news/press/2026/260407/ [^7]: 日本経済新聞「個人情報保護、違反企業に課徴金 法改正案を閣議決定」(2026年4月) https://www.nikkei.com/article/DGXZQOUA065240W6A400C2000000/ [^8]: Japan AISI(AIセーフティ・インスティテュート) https://aisi.go.jp/ [^9]: NIST「Concept Note: Development of the NIST AI RMF Trustworthy Use of AI in Critical Infrastructure Profile」(PDF、2026年4月7日/8日公開) https://www.nist.gov/system/files/documents/2026/04/08/Concept%20Note_%20Development%20of%20the%20NIST%20AI%20RMF%20Trustworthy%20Use%20of%20AI%20in%20Critical%20Infrastructure%20Profile.pdf [^10]: 欧州委員会「Draft of the guidelines on the implementation of the transparency obligations for certain AI systems under Article 50 of the AI Act」(2026年5月8日公表、6月3日まで意見募集) https://digital-strategy.ec.europa.eu/en/library/draft-guidelines-implementation-transparency-obligations-certain-ai-systems-under-article-50-ai-act [^11]: Inside Global Tech「10 Takeaways: European Commission Draft Guidelines on AI Transparency under the EU AI Act」(2026年5月12日) https://www.insideglobaltech.com/2026/05/12/10-takeaways-european-commission-draft-guidelines-on-ai-transparency-under-the-eu-ai-act/ [^12]: NISC(内閣サイバーセキュリティセンター)「重要インフラのサイバーセキュリティの確保に関する主な資料」 https://www.nisc.go.jp/policy/group/infra/siryou/index.html
