こんにちは、株式会社TIMEWELLの濱本です。
社内会議で「うちは結局、AI事業者ガイドラインで言うとどの立場なんだろう」と上司から尋ねられて、即答に詰まった担当者の方を、この一年でずいぶん見てきました。経済産業省と総務省が令和7年3月28日に公表した「AI事業者ガイドライン(第1.1版)」、そして令和8年3月31日に出た第1.2版[^1][^2]。あわせて2025年5月28日に成立し9月1日に全面施行された「人工知能関連技術の研究開発及び活用の推進に関する法律(AI推進法)」[^3]、そして個人情報保護委員会が2023年6月2日にOpenAIへ出した行政指導[^4]。日本のAIまわりは、いつのまにか何枚もの規律が層を成す状態になりました。
本稿では、国内企業のAIガバナンス担当者が押さえるべきこの三層構造を、現場で動かせる粒度まで噛み砕いて整理します。「ガイドラインを読めとは言われたけれど、何から手を付ければよいのか分からない」という方の机の上に置く、実務の地図のつもりで書いています。
AI事業者ガイドライン1.1の構造を最短で押さえる
まず骨格を捉えます。AI事業者ガイドライン第1.1版は、2024年4月19日に出た第1.0版を約1年後に更新したもので、その後2026年3月31日には第1.2版が公表されました。本編と「別添(付属資料)」の二部構成で、本編は「why(基本理念)」と「what(指針)」、別添が「how(実践)」を担う設計です[^1]。
本編は5部構成になっています。第1部が基本理念、第2部が共通指針、第3部がAI開発者向け、第4部がAI提供者向け、第5部がAI利用者向け。第2部の共通指針は10項目あり、人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションが並びます[^5]。教科書のような並びに見えますが、ここに書かれていることは契約交渉や監査の現場で実際に問われる項目とほぼ重なります。「うちはAIで何かトラブルが起きたら誰が説明責任を負うのか」「学習データの偏りをどう検証しているのか」と取引先から問われた瞬間、共通指針10項目はそのまま回答テンプレートとして機能します。
第1.1版で特に注目すべきは、Living Documentとして位置づけられた点と、広島AIプロセス国際指針との接続が強化された点です[^1]。Living Documentであるとは、年次あるいはそれ以上の頻度で見直されるという意味で、企業側も「一度準拠したから終わり」ではなく、改定を追うサイクル運用が求められるということです。第1.2版ではAIエージェントとフィジカルAIへの対応が大幅に拡充され、Human-in-the-Loopの設計が明文化されました[^2][^6]。1年後に何が変わるかを織り込んで設計しておかないと、毎年「大改修」が発生します。
別添はチェックリスト、ワークシート、契約ガイドラインへの参照、ステークホルダー横断のバーチャルケーススタディなどを束ねた実装ガイドです[^7]。本編だけ読んで「抽象的すぎて使えない」と評価する方をたまに見かけますが、別添を開かないのはもったいない。社内のAI規程やAI利用承認フローのテンプレートに直接転用できる粒度の素材が揃っています。
私はクライアントへの説明では、本編を「経営層向けの宣言文」、別添を「現場向けの作業手順書」と分けて紹介しています。両者を分けて運用すれば、経営の意思表示と現場のオペレーションを矛盾なく接続できます。
AI開発者・AI提供者・AI利用者の3区分と実務責任
ガイドラインの中でいちばん最初に直面するのが、自社をどの区分に位置づけるかという問いです。AI事業者ガイドラインはAIに関わる主体を「AI開発者」「AI提供者」「AI利用者」の3つに分けます[^8]。AI開発者はモデルの設計・学習・研究開発を担う事業者、AI提供者は開発済みのAIシステムを他者へ提供する事業者、AI利用者は導入してビジネスに使う事業者という整理です。
ところが現場では、この3つが綺麗に分かれることのほうが少ない。たとえばOpenAIのAPIを呼んで自社プロダクトに組み込み、それを顧客に提供している企業は、技術的にはOpenAIが開発者ですが、自社が出力ガード・プロンプト設計・追加学習を加えていれば実質的に「派生開発」の側面を持ちます。さらに同じプロダクトを社内業務にも使えば「利用者」も兼ねる。このときガイドラインは、「いずれかひとつ」ではなく、該当するすべての区分の責任を引き受けることを求めています[^8]。
3区分でとくに混乱しやすいのが、AI提供者が背負う責任の重さです。提供者は単にAPIを取り次いでいるだけのつもりでも、エンドユーザーから見れば「あなたの会社のAI」です。出力の不正確性、差別的な応答、機密情報の流出。この3点は、契約上の責任分界をどう書いていても、レピュテーション上は提供者の名前が前に出ます。ガイドライン第4部はこの点を踏まえ、提供者には「AI開発者からの情報を受け取り、AI利用者に適切に伝える橋渡し役」を期待しています[^5]。社内で言えば、開発者が書いたモデルカードやリスク評価書を、利用者向けの利用規約・運用ガイドに翻訳する仕事を担うわけです。
利用者の責任も、決して軽くありません。第5部は、利用者に対して「自社の利用目的に照らしたリスク評価」「従業員教育」「ログとモニタリング」「不適切な出力への是正」を求めています[^5]。「使うだけだから」と気を抜くと、出力の検証責任を誰も持たない状態が生まれ、最終的に経営判断や顧客対応の場面で取り返しのつかない齟齬を起こします。
私のおすすめは、3区分の該当マトリクスを社内資料として作ってしまうことです。横軸に「開発者・提供者・利用者」、縦軸に「具体的なAIユースケース」を置く。1セルずつ「該当」「非該当」「一部該当」を埋め、該当セルにはガイドライン本編の該当節番号と社内責任部署を書き込みます。これだけで、議論が抽象論から具体論に動きます。
個人情報保護法×生成AIの論点を一段深く掘る
AI事業者ガイドラインを語るときに、個人情報保護法を切り離して考えることはできません。共通指針の「プライバシー保護」は、あくまで個情法をはじめとする関連法令の遵守を前提にしています[^5]。
出発点になるのは、個人情報保護委員会が2023年6月2日にOpenAIへ出した行政指導です[^4]。要配慮個人情報(人種、信条、社会的身分、病歴、犯罪歴、被害歴等)を本人同意なく学習用に取得することを禁じる、もし取得した場合は速やかに削除するか個人特定不能な形で扱うこと、日本のユーザーへ日本語で利用目的等を提示すること。これらが要請事項でした。要配慮個人情報は18条2項で同意なき取得が原則禁じられているので、生成AI特有の論点というより、AI開発の現場に従来法をそのまま適用した結果と言えます。
生成AI特有の論点として、個情委は「学習済みパラメータは、特定の個人との対応関係が消えていれば個人情報に該当しない」という解釈を示しています[^9]。ここがやや誤解を生む部分で、「では何を入れても安全か」と読み違える担当者が出てきます。違います。学習データに個人情報が混じる行為そのものは、利用目的・委託・第三者提供のルールに服します。プロンプトに顧客の氏名や社員IDをそのまま入れる業務フローを放置していれば、生成AIサービス事業者への「個人データの第三者提供」と評価されかねず、本人同意か委託契約のいずれかが必要です。
2025年以降、個人情報保護委員会は法改正検討を進めており、AI開発目的・統計目的での個人情報取得については本人同意を不要にする方向が議論されています[^10]。入口で同意を取り付ける従来モデルから、出口で出力の使われ方を監督する出口規制モデルへの重心移動です。これは企業にとって朗報の側面もありますが、出口側の管理(出力の用途制限、再特定防止、ログ監査)に投資する必要が出てきます。同意一発で逃げ切れた時代が終わりつつある、という捉え方が現実に近い。
私は、個人情報を扱うAIユースケースには、最低でも次の三段の防御を敷くべきだと考えています。第一に、学習・チューニングへ個人データを使わない(あるいは使う場合は仮名化・委託契約・本人通知のセットを徹底する)。第二に、プロンプトへの入力データに対して、項目別にマスキングや匿名化を自動でかけるパイプラインを噛ます。第三に、出力に対して再特定可能性を検証するレビュー工程を設ける。三段すべて完璧でなくても、一段でも穴が空いていれば事故時の説明責任が極端に重くなります。
リスクベースアプローチをどう実装するか
AI事業者ガイドラインが共通の言語として持ち出すのが、リスクベースアプローチです[^5][^11]。すべてのAIに同じ強度の管理を敷くのは現実的ではない、ということを前提に、影響度と発生確率の組み合わせで対策の優先順位を決めるという考え方です。
具体的な手順は、おおむね次のように組み立てます。まずユースケースを棚卸しし、それぞれについて「対象となるデータの機微性」「意思決定への関与度」「自動化レベル」「対象者数」「逆転可能性」を5段階で評価します。次に各項目を掛け合わせてリスクスコアを算出し、上位帯にあるユースケースには重点管理(PIA、第三者レビュー、Human-in-the-Loop、外部監査)を割り当てます。中位帯は社内ガイドラインと教育で運用、下位帯は届出制で進める、といった粒度です。
このとき有効な道具がプライバシー影響評価(PIA)です[^12]。PIAは個人情報を扱う新サービス・新システムを企画・開発する段階で、プライバシーリスクを事前評価する手法で、日本では法定義務はないものの、政府機関やKDDIをはじめとする先進企業が自主的に運用しています[^13]。AI事業者ガイドライン別添も、PIAをリスクベースアプローチの一手段として位置づけています[^7]。AI特有のバージョンとしては、AIに固有の論点(学習データの偏り、モデル更新の影響、出力の再特定リスク)を追加項目に組み込んだ「AI影響評価」を社内で標準化することをお勧めします。
実装で見落とされやすいのが、運用フェーズのモニタリングです。導入時のリスク評価で「低リスク」と判断したユースケースが、利用が広がるうちにスコープを拡張し、気がつくと高リスク領域に踏み込んでいる、というパターンを何度も見てきました。半年に一度はユースケースごとの利用ログ、フィードバック、インシデント記録を棚卸しし、リスクスコアを再計算する仕組みを社内に組み込んでください。Living Documentであるガイドラインに追随する企業側の動きとして、この再評価サイクルが効きます。
KDDIが社長直轄のプライバシーガバナンス・データガバナンス・AIガバナンスの3層体制で運用していることや、りそなホールディングスがガイドライン策定・リスクチェックプロセス・社員教育を統合運用していることは、参考になる先行事例です[^14][^15]。完璧を狙わず、まず「経営直轄のAIガバナンス委員会」「四半期ごとのリスクレビュー」「年1回の規程改定」の3点セットから始めれば、ほとんどの企業は半年以内に最低ラインを超えられます。
違反時のリスクは「罰則なし」では済まない
AI事業者ガイドラインそのものは非拘束的なソフトローで、ガイドライン違反だけを根拠とした行政処分や刑事罰は存在しません[^16]。AI推進法も基本法的な性質で、罰則規定を持ちません[^3]。これだけ聞くと、「では守らなくてもよいのでは」と思う方が出てきます。実務はそんなに甘くない。
第一に、ガイドラインが参照する関連法令には罰則があります。個人情報保護法は、利用目的の特定(17条)、要配慮個人情報の取得制限(20条2項)、第三者提供の制限(27条)等の違反に対し、個人情報保護委員会の指導・勧告・命令を経て、命令違反には1年以下の懲役または100万円以下の罰金が科されます。法人の両罰規定では、最大で1億円の罰金が科される条文があります。AI事業者ガイドラインを守らない結果、個情法に触れていれば、行政処分と刑事罰の双方がのしかかります。
第二に、契約上のリスクです。最近の業務委託契約書、SaaS利用規約、データ提供契約には、「AI事業者ガイドラインに準拠して運用すること」という条項が当たり前に入るようになりました。ガイドライン違反が判明すれば契約解除事由、損害賠償請求の根拠、入札資格の取消事由になり得ます。法律上の罰則がなくても、ビジネス上の罰則は十分に重い。
第三に、レピュテーションリスクです。生成AIの不適切な利用や情報流出は、SNS上で一夜にして拡散します。広島AIプロセス国際指針への対応状況、AI事業者ガイドライン1.1への対応状況、PIA実施状況といった項目を、有価証券報告書や統合報告書で開示する企業が増えています[^14]。開示している企業が増えるほど、開示しない企業の説明責任が逆に重くなる。市場と取引先からの目線が、ガイドラインを実質的に拘束力のあるものへ押し上げています。
第四に、不法行為責任のリスクです。AIの誤った出力で個人や企業に損害を与えた場合、民法709条の不法行為責任、製造物責任法の準用、業務委託契約上の善管注意義務違反など、複数の請求根拠で訴えられる可能性があります。「AIが勝手にやったこと」という抗弁は、Human-in-the-Loopやリスク評価の証跡が残っていない限り通用しないと考えたほうがよい。日本弁護士連合会のAI戦略ワーキンググループも、2025年9月に弁護士業務における生成AI利用の注意事項を公表し、業務上の注意義務として説明可能性の確保を強調しています[^17]。
罰則がないという表面的な事実だけを見て対応を後回しにする経営判断は、私の目には博打に映ります。AI推進法の今後の改正でハードロー化が議論される可能性もあり、先行投資として体制を整えるほうが、結果的に総コストは安く付くというのが私の見立てです。
統合管理を支えるエンタープライズAI基盤の選び方
ここまで整理してきたガイドライン対応・個人情報保護・リスクベース運用の三層を、紙の規程と人手のレビューだけで回し続けるのは限界があります。私たちTIMEWELLが提供するエンタープライズAI「ZEROCK」は、まさにこの統合管理のためのインフラとして設計されています。AWSの国内サーバー上に閉じた環境でモデルを稼働させ、GraphRAGによる出典トレースを標準で備え、プロンプトライブラリによって組織横断のナレッジコントロールを実装する。データ主権、出力の検証可能性、利用者教育の3つを同時に満たす構成です。
経済安全保障の文脈での輸出管理AIエージェントTRAFEED、地政学リスクへの備えとしての国産IT選択。社内ガバナンスはこれらの外部リスク対応と連動して初めて意味を持ちます。AI事業者ガイドラインへの対応は、単独で完結するチェックリスト作業ではなく、経済安全保障やデータ主権、教育・リテラシーといった周辺テーマと結び付けてこそ、企業の競争優位を生む基盤になります。
完璧な体制を初日から作る必要はありません。3区分の該当マトリクスを書き、共通指針10項目に対する自社の現状を一度棚卸しし、上位リスクのユースケースから順にPIAを回す。ここから始めれば、年内には経営に説明できる水準の体制が立ち上がります。Living Documentに追随し続けるガバナンスは、一度きりのプロジェクトでは作れません。年1回の改定、四半期ごとのレビュー、月次の運用記録という3つのリズムで、組織の習慣に育てていくしかない。地味ですが、ここを真面目にやった企業から差が広がります。
参考文献
[^1]: 総務省・経済産業省「AI事業者ガイドライン(第1.1版)」令和7年3月28日 https://www.soumu.go.jp/main_content/001002576.pdf [^2]: 経済産業省「AI事業者ガイドライン(第1.2版)」令和8年3月31日 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20260331_report.html [^3]: 内閣府「AI法 全面施行 — 次なるフェーズへ」2025年10月3日 https://www.cao.go.jp/press/new_wave/20251003.html [^4]: 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」2023年6月2日 https://www.ppc.go.jp/news/careful_information/230602_AI_utilize_alert/ [^5]: 経済産業省「AI事業者ガイドライン(第1.1版)概要」令和7年3月28日 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_2.pdf [^6]: ailead Blog「AI事業者ガイドラインv1.2完全解説」2026年 https://www.ailead.app/blog/ai-governance-guideline-v12-agent-regulation-2026 [^7]: 経済産業省「AI事業者ガイドライン(第1.1版)別添(付属資料)」令和7年3月28日 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_3.pdf [^8]: 伊藤忠テクノソリューションズ「AI事業者ガイドラインをザックリ理解しておこう」 https://www.ctc-g.co.jp/keys/blog/detail/ai-business-guidelines-key-points [^9]: 三浦法律事務所「Data and Digital Insights Vol.6 生成AIの活用と法整備の現在」 https://note.com/miuraandpartners/n/n0949f5f0f022 [^10]: 牛島総合法律事務所「個人情報保護法改正の追加検討事項の公表(2025年1月22日)」 https://www.ushijima-law.gr.jp/client-alert_seminar/client-alert/20250123appi/ [^11]: PwC Japan「AIガバナンスに関するコラム 想定されるリスクと各国の法規制」 https://www.pwc.com/jp/ja/knowledge/column/ai-governance/ai-governance-risk.html [^12]: NTTデータ先端技術「やってみよう!PIA(プライバシー影響評価)!」 https://www.intellilink.co.jp/column/security/2022/121900.aspx [^13]: 東京海上ディーアール「PIA(プライバシー影響評価)の現在地と課題」 https://www.tokio-dr.jp/publication/report/riskmanagement/riskmanagement-393.html [^14]: 大和総研「AIガバナンスとは?AIガバナンス構築の4つの要所を解説」 https://www.dir.co.jp/world/entry/solution/ai-governance [^15]: NTTデータ「りそなホールディングスと共創する、AIガバナンス構築の取り組み」2025年7月 https://www.nttdata.com/jp/ja/trends/data-insight/2025/0707/ [^16]: hipro-job「AI事業者ガイドラインとは。罰則は?企業が知っておくべきポイントは?」 https://biz.hipro-job.jp/column/corporation/ai_guidelines_for_business/ [^17]: 日本弁護士連合会AI戦略ワーキンググループ「弁護士業務における生成AIの利活用等に関する注意事項」2025年9月 https://prtimes.jp/main/html/rd/p/000000364.000033386.html
