WARP

【2026年5月最新】AI事業者ガイドライン第1.2版を完全解説:AIエージェント規制とHuman-in-the-Loop義務、企業実務への影響

2026-05-02濱本 隆太

2026年3月31日に経済産業省・総務省が公表したAI事業者ガイドライン第1.2版を、企業実務の観点から完全解説。AIエージェントとフィジカルAIの定義、Human-in-the-Loop義務の射程、社内ガバナンス構築の手順、WARPコンサルによる伴走支援までを濱本隆太が整理します。

【2026年5月最新】AI事業者ガイドライン第1.2版を完全解説:AIエージェント規制とHuman-in-the-Loop義務、企業実務への影響
シェア

株式会社TIMEWELLの濱本隆太です。AI事業者ガイドラインが2026年3月31日に第1.2版へ改訂されました[^1]。改訂が公表された翌週から「結局、自社のAI運用フローは何を直せばいいのか」という相談が一気に増えています。今日は、その問い合わせに答える形で、第1.2版の中身を企業実務担当者の視点から整理し直します。

ガイドラインの本文は印刷すると100ページを超えます。すべてを通読する時間が取れる方はそう多くありません。なので本稿は、まず「v1.1からの差分」と「Human-in-the-Loop(以下HITL)が新たに何を求めているか」に絞り、そのうえで社内ガバナンスとして落とし込む手順、海外規制との整合性、WARPコンサルでの支援内容、という順番で進みます。読み終えたとき、「来週から何の文書を作り直し、何の運用ルールを足すか」が見えている状態を目指します。

ちなみに改訂のたびに「ソフトローだから対応しなくていい」と判断する方が一定数いらっしゃいます。私は逆だと考えています。ソフトローのほうが、契約・調達・上場準備の場面で「業界標準として満たしているか」を遡及的に問われるので、後付けの修復コストが大きい。先に整えた会社が静かに先行する、というのが私の現場感覚です。

AI事業者ガイドライン第1.2版とは何か——v1.1からの変更点

そもそもAI事業者ガイドラインは、経済産業省と総務省が共同で取りまとめている「AIを開発・提供・利用する事業者向けの自主規制ガイダンス」です。2024年4月のv1.0公表[^1]から1年弱で2025年3月のv1.1[^2]へ、さらに約1年で2026年3月のv1.2へと、年1回ペースで更新が続いています。法律ではないので違反しても罰則はありませんが、関係省庁が業界標準として参照する文書なので、調達基準やセキュリティ評価の場面で実質的な要求仕様として機能します。

v1.2の改訂は、2025年から2026年にかけて起きた「AIエージェント実装の急速な広がり」を受けたものです。PwCの2025年調査では、日本企業の生成AI活用率が64.4%、AIエージェントの導入・PoCに踏み出した企業が29.7%まで伸びていました[^9]。McKinseyの2026年最新レポートも、「企業はチャットボットの時代から、自律的に行動するエージェントの時代へ移った」と総括しています[^7]。法令やガイドラインが「人間が確認してからAIが出力する」という前提だけで作られていると、現実の実装に追いつかない。そのギャップを埋めるための更新が、今回のv1.2です。

差分は大きく分けて3点です。

変更点 v1.1まで v1.2
AIエージェントの定義 用語として明記なし 「自律的にタスクを分解・実行し、外部システムに作用するAIシステム」として正式定義
フィジカルAIの定義 用語として明記なし ロボティクス・自動運転・産業機械など、物理世界に直接作用するAIを別カテゴリで規定
Human-in-the-Loop(HITL) 推奨レベル 「外部アクション」を伴う場面では事実上の義務として記載

特に大きいのが3つ目です。v1.1までは「人間の関与を確保することが望ましい」という推奨ベースの書き方でしたが、v1.2では「外部アクションを取るAIエージェント」を明示し、その前段に人間の確認ステップを置くことを「実装上の必須要件」として位置付けました。これが今回の改訂のいちばんの実務インパクトだと、私は受け止めています。

なぜ今このタイミングで強化されたのか。背景にはIPAの「情報セキュリティ10大脅威 2026」でAIが3位に初めて入ったこと[^4]、4月にIPA AISIから医療AI向けセーフティ評価ガイドが公表されたこと[^3]、そして個人情報保護委員会が2026年1月に「制度改革方針12項目」を公表してAIと個人データの取扱いの線引きを再設計し始めたこと[^8]があります。点で起きていた規制動向が、ここに来て面として収束してきている、という構図です。

もうひとつ補足しておくと、第1.2版は本文の構成こそv1.1を踏襲していますが、別添資料の充実が著しい。とくに「リスクシナリオ集」と「説明責任テンプレート」が新たに追加され、開発者・提供者・利用者それぞれに対応するチェックリストが付属する形になりました。本文だけ読んで終わるのではなく、別添まで合わせて読んだうえで自社の運用に転写するのが正しい使い方だと思っています。

AI研修・コンサルティングをお探しですか?

WARPの研修プログラムとコンサルティング内容をまとめた資料をご覧ください。

AIエージェント規制とHuman-in-the-Loop義務の射程

ここが本稿でいちばん丁寧に書きたいパートです。「外部アクション」という言葉が一人歩きしているので、実務でどこまでがHITLの対象になるかを具体例で押さえておきます。

第1.2版が想定している「外部アクション」は、おおむね以下のような業務シーンです。

  • 顧客や取引先に対するメール・チャット送信
  • 外部APIへの書き込み(CRM更新、SaaSのレコード作成、SNSへの投稿)
  • 本番環境のコード反映、インフラ変更、データベース更新
  • 決済の実行、振込・出金、ポイント付与など金銭の移動
  • 物理デバイスへの指示(ロボティクス、IoTスイッチ、生産ラインへの指令)
  • 不可逆な情報の公開(プレスリリース、上場関連の開示、SNSアカウントからの発信)

社内のSlackに下書きを置くだけ、ローカルのテキストファイルに書き出すだけ、といった可逆かつ社内完結の動作はHITLの直接対象外と整理されます。一方で、いったん外に出れば取り戻せない動作はすべて対象、と考えておくのが安全です。

では「人間の介在」をどこに置くか。私が現場で勧めているのは、次の3層構造です。

  1. プロンプト段階の介在:エージェントに何をさせるか、最初の指示を人間が定義する
  2. プラン段階の介在:エージェントが立てた実行計画(ステップの並び)を人間がレビューする
  3. アクション直前の介在:外部に作用する直前で、もう一度人間が承認する

3層全部を毎回踏むと現場が回りません。なのでリスクの高い動作(金銭、本番環境、対外発信)に3層、リスク中(CRM更新、メール送信)に2層、リスク低(社内ドキュメント生成)に1層、といった具合に重みを変えます。「全部承認」と「全部スキップ」の二択にせず、操作の不可逆性と影響範囲で承認密度を変える、という発想が現実的です。

設計の参考になるのが、Claude Codeなど開発エージェントの運用ノウハウです。たとえば私たちが社内で運用しているsettings.jsonのdenyルールやpre-commit hookの考え方は、そのままAIエージェント全般のガードレールに転用できます。詳細はClaude Codeに.envを読ませない|settings.jsonと4層防御で作るシークレット漏洩対策に書きました。あちらは開発者向けですが、HITLの実装イメージを掴むのに役立ちます。

複数エージェントを束ねるオーケストレーションの設計については、Claude Code エージェントチーム運用ガイドで別途整理しています。エージェントが多段に連鎖する構成では、HITLをどこに挟むかが運用品質を直撃します。

ここでひとつ、現場で誤解されがちなポイントを書いておきます。HITLは「全部の判断を人間がやる」ことではありません。「最終アクションの直前に人間の確認可能性を確保する」設計です。エージェントが下書きや候補をどんどん作り、人間は承認スタンプを押すか拒否するだけ、というワークフローでも要件は満たせます。むしろこの非対称性を活かさないと、人間がボトルネックになってAI導入の効果が消えます。

もうひとつ、「常時オン」の承認だけがHITLではない、という点も実務では大事です。リアルタイムで毎回承認する形のほかに、(a)バッチ処理の前後でまとめてレビューする、(b)一定期間は自動実行を許可しつつログを翌朝必ず人間がチェックする、(c)異常値が検知されたときだけ人間にエスカレーションする、といったバリエーションが認められます。要は「人間の意思決定が組み込まれていることを後から証明できる」ことが本質。設計の自由度はかなり高いと考えてよいと思います。

社内ガバナンス構築の3ステップ

ここからは「来週から手を動かす」パートです。改訂対応として最低限やるべきことを3つに整理しました。

ステップ1:自社の立ち位置を整理する

ガイドラインは事業者を「開発者」「提供者」「利用者(業務利用者と非業務利用者)」に分けて書かれています。同じ会社の中でも、サービスごとに立場が異なるのが普通です。

たとえば社内向けに自社モデルをホスティングしているなら開発者。OpenAIやAnthropicのAPIを使ってSaaSを提供しているなら提供者。ChatGPT Enterpriseを業務利用しているだけなら利用者。多くの企業は「全部該当する」が現実です。

最初にやるのは、AIシステムの棚卸しと、それぞれにどの立場で関わっているかのマッピングです。Excelでもスプレッドシートでも構いません。「サービス名」「主担当部門」「自社の立場」「処理する個人データの有無」「外部アクションの種類」「現状のHITLレベル」の6列があれば、初版としては十分機能します。

ステップ2:AI利用ポリシーと運用ルールを文書化する

棚卸しが終わったら、以下の文書を整える順番がおすすめです。

  • AI利用基本方針(経営層名で発行する1ページの宣言文書)
  • AI利用ガイドライン(従業員向け:許可される利用、禁止される利用、相談窓口)
  • HITL運用ルール(部門別:どのアクションに何層の承認を入れるか、承認権限の所在)
  • データ取扱い基準(個人データ・営業秘密・知的財産をAIに渡す際の判断ツリー)
  • ベンダー・モデル評価基準(外部AIサービスを導入する際のチェック項目)

最初から完璧を目指す必要はありません。「現状の運用を文書化する」を起点にして、明らかに弱いところから順番に強化する方針が、結果的にいちばん早く回ります。

ありがちな失敗が「禁止事項だけを並べたガイドライン」です。これだと現場が萎縮して、結局シャドーAI(管理外のChatGPTアカウント等)に流れます。許可される利用例を必ず併記して、「公式ルートのほうが楽で安心」という設計にすることをおすすめします。

ステップ3:監査ログとインシデント対応プレイブックを整備する

ガイドラインv1.2は「説明責任を果たせる状態」を強く求めます。具体的には、AIエージェントが何をしたか、誰がいつ承認したか、どの判断にどのモデル・どのプロンプトを使ったか、を後から追えるログ設計です。

最低限残しておきたいのは次の項目です。

  • 入力プロンプト(業務上の重要操作のみで構わない)
  • 使用したモデル名とバージョン
  • 出力の要約(または出力そのもの)
  • 外部アクションの内容(送信先、書き込み先、金額等)
  • 承認者と承認日時
  • エラーや拒否があった場合の理由

ログ保管期間は、自社の他の業務ログ(アクセスログ、操作ログ)と揃えるのがメンテナンス上ラクです。多くの企業で1〜3年が標準帯です。

インシデント対応プレイブックは「想定インシデント別に、最初の1時間にやることを箇条書きにした文書」と思ってください。AIに関する典型的なインシデントは、機密情報の漏洩、誤った外部発信、ハルシネーションによる業務判断ミス、不正利用(プロンプトインジェクション等)、の4類型に集約できます。それぞれに「初動連絡先」「証拠保全の手順」「対外説明のドラフト」を用意しておくと、実際に何かあった日の混乱が劇的に減ります。

EU AI Act・NIST AI RMF・ISO/IEC 42001 との整合性

国内ガイドラインだけ満たしていれば安心、という時代ではありません。海外展開がない会社でも、海外取引先からの監査要請、グローバル投資家からのデューデリジェンス、海外SaaSのベンダーセキュリティ評価といった場面で、海外規格との整合性を問われます。

押さえておきたい主要3本を簡単に整理します。

規格・規制 性格 重要マイルストーン
EU AI Act 法令(罰則あり)。EU域外事業者にも域外適用 2026年8月2日に高リスクシステム義務が完全適用[^5]
NIST AI RMF 米国政府が示す任意フレームワーク 2026年4月7日に重要インフラ向けプロファイルのコンセプト公開[^6]
ISO/IEC 42001 国際規格。第三者認証取得が可能 2023年12月発行、認証取得企業が世界的に増加中[^10]

EU AI Actは、対象が「EU市場にAIシステムを置く事業者」なので、EU域内で1人でもユーザーがいれば対象になり得ます。日本企業も他人事ではありません。とくに人事評価、採用、教育、医療、金融与信といった分野は「高リスク」に分類されているので、国内向けでも同等のガバナンスを準備しておく価値があります。

NIST AI RMFは罰則のないフレームワークですが、米国政府の調達やインフラ事業者の自主規制で参照される頻度が高く、グローバルでの「事実上の標準」として広がっています。重要インフラ向けプロファイルが2026年4月にコンセプト公開された[^6]ことで、エネルギー・通信・金融・水道・医療といった分野では準拠の流れが加速しそうです。

ISO/IEC 42001は「AI Management System(AIMS)」の国際規格です。情報セキュリティのISO/IEC 27001と同じ建付けなので、すでにISMSを運用している会社にとっては土台が共通します。第三者認証を取得すれば、取引先への説明コストが大幅に下がる、というのが実務上のメリットです[^10]。

私の見立てでは、向こう1〜2年で「AI事業者ガイドラインv1.2 + ISO/IEC 42001 + 個人情報保護法」をベースラインにし、必要に応じてEU AI ActとNIST AI RMFを上乗せする、という形が日本企業の標準解になっていきます。3つを別々に対応するのではなく、共通する管理項目を一本化したガバナンス文書を1セット作っておくのが、いちばんコスト効率が良いと考えています。

WARPで「組織標準」のAIガバナンスを構築する

ここまで読まれた方の多くは、たぶん次のような状態にいると思います。

  • ChatGPTやClaude、Geminiの活用は現場で進んでいる
  • ただ、社内に統一ルールがなく、部門ごとに運用がバラバラ
  • AIエージェントを本格導入したいが、HITLや監査ログの設計に自信がない
  • ガイドライン改訂の話は聞いたが、自社で何をどこまでやるべきか棚卸しができていない
  • 経営層から「うちのAIガバナンスは大丈夫か」と聞かれたが、即答できない

これはまさに、私たちのWARPコンサルティングが伴走してきた典型的な状況です。WARPは月次の伴走型コンサルで、AI推進担当者・経営層・法務・セキュリティ部門の方が直接相談できる体制を取っています。元大手DXとデータ戦略の専門家がチームで入り、ガイドライン準拠評価から社内文書整備、教育、インシデント対応プレイブックまでを一貫してサポートします。

支援内容の主な柱は以下です。

  • AI事業者ガイドラインv1.2への準拠評価(自社サービスごとの立場整理、ギャップ分析)
  • AI利用ポリシー、HITL運用ルール、監査ログ基準の作成支援
  • 開発者・利用者向け教育プログラムの設計と実施
  • インシデント対応プレイブックの整備、机上訓練
  • EU AI Act・NIST AI RMF・ISO/IEC 42001 との整合性チェック
  • 経営会議向けレポート(ガバナンス成熟度、リスク残存、次四半期アクション)

「AIを使い倒したい、でも規制対応とガバナンスに不安がある」という段階の企業に、いちばんフィットする伴走サービスだと自負しています。詳細はWARPコンサルティングのページ、まずは話を聞いてみたい方はこちらのフォームからお問い合わせください。初回30分のオンライン相談で、現状のヒアリングと打ち手の優先順位までご案内します。

まとめ

AI事業者ガイドラインv1.2は、AIエージェント時代の到来を踏まえてHITLを実装上の必須要件に格上げした、はじめてのバージョンです。法令ではないけれど、契約・調達・上場準備の場面でじわじわ効いてきます。動き出すなら、棚卸し、文書化、ログとプレイブック整備、の順番で構いません。海外規格と一本化したガバナンス文書を一度作れば、向こう数年は強い武器になります。

[^1]: 「AI事業者ガイドライン(第1.2版)」 — 経済産業省・総務省 — 2026-03-31 — https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html [^2]: 「AI事業者ガイドライン(第1.1版)」 — 経済産業省・総務省 — 2025-03-28 — https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_1.pdf [^3]: 「ヘルスケア領域におけるAIセーフティに関する評価観点ガイド公開」 — 独立行政法人情報処理推進機構(IPA AISI) — 2026-04-03 — https://www.ipa.go.jp/pressrelease/2026/press20260403.html [^4]: 「情報セキュリティ10大脅威 2026」 — 独立行政法人情報処理推進機構(IPA) — 2026-01-29 — https://www.ipa.go.jp/security/10threats/10threats2026.html [^5]: 「EU AI Act Implementation Timeline」 — Future of Life Institute — 2026年8月2日 高リスクシステム義務 完全適用 — https://artificialintelligenceact.eu/implementation-timeline/ [^6]: 「AI Risk Management Framework — Critical Infrastructure Profile(コンセプト)」 — National Institute of Standards and Technology(NIST) — 2026-04-07 — https://www.nist.gov/itl/ai-risk-management-framework [^7]: 「State of AI trust in 2026: Shifting to the agentic era」 — McKinsey & Company — 2026年公開 — https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/tech-forward/state-of-ai-trust-in-2026-shifting-to-the-agentic-era [^8]: 「個人情報保護法 制度改革方針(12項目)」 — 個人情報保護委員会 — 2026-01-09 — https://www.ppc.go.jp/ [^9]: 「生成AIに関する実態調査2025春」 — PwC Japanグループ — 2025年公開 — https://www.pwc.com/jp/ja/knowledge/thoughtleadership/generative-ai-survey2025.html [^10]: 「ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system」 — 国際標準化機構(ISO) — https://www.iso.org/standard/81230.html

AI導入について相談しませんか?

元大手DX・データ戦略専門家が、貴社に最適なAI導入プランをご提案します。初回相談は無料です。

この記事が参考になったらシェア

シェア

メルマガ登録

AI活用やDXの最新情報を毎週お届けします

ご登録いただいたメールアドレスは、メルマガ配信のみに使用します。

無料診断ツール

あなたのAIリテラシー、診断してみませんか?

5分で分かるAIリテラシー診断。活用レベルからセキュリティ意識まで、7つの観点で評価します。

WARPについてもっと詳しく

WARPの機能や導入事例について、詳しくご紹介しています。