こんにちは、株式会社TIMEWELLの濱本です。
「Claude Codeを全社展開したいのですが、法務から個人情報保護法とAI事業者ガイドラインを全部押さえてからにしてくれと止められまして」。先週、製造業の情報システム部長からこんな相談を受けました。同じ悩みは銀行、保険、医療機器、自治体向けSIerなどから、ここ半年で十数件もらっています。
正直なところ、規制側の動きが速すぎて追いつけないのが本音だと思います。AI事業者ガイドラインは1.0が令和6年4月、1.1が令和7年3月、1.2が令和8年3月と毎年改定されています。個人情報保護法も令和7年に大きな改正方針が示され、2026年通常国会で課徴金導入を含む改正案が決定されました。Anthropic側の利用規約も2025年8月にオプトアウト方式へ切り替わったばかりです。
この記事では、2026年4月時点で日本企業がClaude Codeを業務に組み込むときに押さえるべきポイントを、規制の建てつけから実務の落とし方まで一気に整理します。法務部門と情報システム部門の両方が読める粒度を目指します。
1. AI事業者ガイドライン1.1版と1.2版の構造、Claude Codeの位置づけ
総務省と経済産業省が共同で出している「AI事業者ガイドライン」は、令和6年4月19日に第1.0版、令和7年3月28日に第1.1版、令和8年3月31日に第1.2版が公表されました[^1][^2]。Living Documentと宣言されているとおり、毎年中身が動きます。1.0版で大枠を作り、1.1版で生成AIとAIエージェントへの対応を厚くし、1.2版でAIエージェント時代のリスク管理を明示する構成です。
このガイドラインの軸は、AI事業活動を「AI開発者」「AI提供者」「AI利用者」の3つに分けたうえで、共通の指針10原則を全員が守るというものです。10原則の内訳は、人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションの10個[^3]。OECDのAI原則やG7広島AIプロセスとの整合を意識した並びになっています。
Claude Codeの利用シーンに当てはめると、ほとんどの日本企業はAI利用者の立場です。AnthropicがAI開発者、API再販やSaaSとしてClaudeを組み込む業者がAI提供者、それを使う事業会社がAI利用者というレイヤー構造です。気をつけたいのは、Claude Codeで自社のサブエージェントやMCPサーバーを開発し、それをグループ会社や顧客に提供したときには、利用者と提供者を兼ねる扱いになる点です。1.1版は同一事業者が複数区分を兼ねるケースを明示しており[^4]、その場合は提供者として求められる説明責任、不具合時の対応窓口、利用者向けの留意点提示までセットで整える必要があります。
「うちはClaude Codeを使うだけだから関係ない」と感じるかもしれませんが、社内でツール化して別部署に配ったり、子会社にエージェントを使わせたりした瞬間、提供者の責任が発生します。私はこの境界線を見落とす案件を何件も見ているので、最初から「提供者になり得る前提」で台帳を作っておくことを勧めています。
ガイドライン本体は強制力のないソフトローですが、内閣府の人工知能関連技術の研究開発及び活用の推進に関する法律(AI推進法)が2025年9月1日に全面施行され、令和7年12月23日に「人工知能基本計画」が閣議決定されました[^5]。この基本計画と紐づく形でガイドラインの位置づけが格上げされており、無視できる立場ではなくなりました。
2. 個人情報保護法と生成AI、3つの論点
個人情報保護法と生成AIの交差点で議論される論点は、ざっくり3つに整理できます。学習データへの混入、要配慮個人情報の扱い、そして越境移転です。
ひとつめの学習データ混入は、ユーザーがプロンプトに入れた個人データが、AIモデルの学習に再利用されるケースを指します。個人情報保護委員会は令和5年(2023年)6月2日に「生成AIサービスの利用に関する注意喚起」を公表し[^6]、個人情報取扱事業者に対して、利用目的の範囲を超えてプロンプトに個人データを入力することは法18条違反になり得ると明示しました。同日、ChatGPTを開発するOpenAI L.L.C.に対して国内初の生成AI関連の行政指導も行っています[^7]。
ふたつめの要配慮個人情報は、人種、信条、病歴、犯罪歴などを指す個人情報保護法2条3項のカテゴリです。委員会はOpenAIに対し、要配慮個人情報を本人同意なく取得しないこと、機械学習用に収集する情報から要配慮個人情報を除外し収集後即座に削除すること、利用目的の通知を日本語で行うことを求めました[^7]。Claude Codeでも同じ枠組みが適用されます。コードレビュー中にユーザーの病歴データや信条情報をテストデータとして触らせる運用は、たとえ匿名化前でも危険です。
3つめの越境移転は、個人情報保護法28条の問題です。米国Anthropicへ個人データを提供する行為は「外国にある第三者への提供」に該当し、原則として本人同意が必要になります[^8]。例外として日本と同等水準の国(EU・英国)、相当措置を継続的に講ずる体制整備、委託・共同利用が認められますが、米国は同等水準国に指定されていないので、Anthropicとの契約上の保護措置で例外を成立させるか、本人同意を取りに行くかの二択になります。
そして令和7年から進行中の法改正動向にも触れておきます。政府は2026年1月に制度改正方針を出し、AI開発・学習目的でかつ個人を識別しない統計利用に限って同意要件を緩和する案を示しました[^9][^10]。ただしこれは「学習用に使う側」の話であり、Claude Codeのエンタープライズ利用で個人データをプロンプトに入れる業務には適用されません。「AI関連だから同意不要になる」と早合点する声をよく聞きますが、対象外です。
実務で迷うのは「Claude Codeに渡したコメント欄のメールアドレスが個人情報になるか」のような微妙なライン。私はメールアドレス単独でも個人識別性があると判断する保守側に立っています。理由は、社内通報窓口でメールアドレスから職員特定が起きた事例が過去に複数あったから。法解釈としては議論の余地がありますが、業務設計としてはマスキングを前提に組むほうが事故が起きにくい、という現場感覚です。
3. AI開発者・提供者・利用者の責任配分とTIMEWELLの立場
ガイドラインの3区分は、責任分解モデルとして読むと使いやすくなります。
AI開発者は、AIモデルを設計・学習・検証する事業者です。Anthropicがここに入ります。求められる主な責務は、学習データの公平性確保、安全性検証、技術文書の整備、モデルの透明性です。
AI提供者は、AI開発者が作ったモデルを自社サービスに組み込んで提供する事業者です。Claude API再販事業者、Claude Code向けのMCPサーバーをSaaSとして売る事業者、Claudeを組み込んだ業務アプリを提供するSIerなどが該当します。提供者は、利用者向けの利用条件提示、不具合発生時の対応、提供範囲外の使われ方への注意喚起などが求められます。
AI利用者は、AI提供者から受け取ったAIシステム・サービスを業務で使う事業者です。多くの日本企業はここに入ります。求められる責務は、適正利用、出力結果の検証、人手による最終判断、ログ管理です[^4][^11]。
TIMEWELLでみると、私たちは複合プレイヤーです。Anthropic Claudeをそのまま使うときはAI利用者、ZEROCKやTRAFEEDで自社向けにAIを組み込むときはAI提供者、独自のGraphRAGエンジンを開発しているという意味ではAI開発者の側面も持ちます。お客様にエンタープライズAIを納品する立場として、提供者責任を中心に組み立てています。
具体的にどんなドキュメントを揃えているかというと、まずプロダクトごとの「利用者向け留意事項」を整備しています。出力結果の精度限界、入力してはいけないデータ種別、ログの保持期間、サブプロセッサ一覧、サポート窓口を、ガイドライン1.1版の付録チェックリストに沿って書き起こしました。次に、社内でClaude Codeを使うときの「利用者責任の遵守ルール」を別建てで持っています。プロンプトに本番個人情報を入れない、Zero Data Retention契約のあるClaude for Enterpriseを使う、コード内コメントから顧客名を除去する、といった当たり前の徹底です。
ここで強調したいのは、3区分の責任は重なっても矛盾しないということです。「開発者だから利用者責任は薄い」とか「利用者だから提供者責任は無関係」という整理にはなりません。Claude Codeでサブエージェントを作って同僚に共有した瞬間、あなたは小さな提供者になる、と捉えてください。
社内の関連記事としてClaude Codeをエンタープライズに導入するときの全体設計も書いていますので、技術と運用の両面から押さえたい方はあわせてどうぞ。
4. AI対応PIA(プライバシー影響評価)を回す
PIA(Privacy Impact Assessment)は、個人情報を扱う業務やシステムを始める前に、リスクを特定して対策を講じる仕組みです。日本では法的義務にはなっていませんが、個人情報保護委員会が2021年6月30日に「PIAの取組の促進について」を公表し[^12]、JIS X 9251:2021(ISO/IEC 29134:2017の翻訳)が国内標準として整備されています。
通常のPIAは、準備、評価実施、報告書作成、レビューの4工程で進みます。AI対応のPIAは、ここに3つの追加論点を必ず織り込んでください。
ひとつめは学習データの来歴です。Claude Code自体はモデル学習には自社プロンプトを使わない契約(API、Team、Enterprise)ですが、その前提が本当に契約条項として担保されているかの確認が要ります。Anthropicの公式FAQでは商用プラン経由のデータは学習に使わないと明示されており[^13][^14]、契約書の該当条項とZero Data Retentionの設定状況を実物として証跡化します。
ふたつめはプロンプトと出力ログの扱いです。Free/Pro/Maxプランは2025年8月29日の規約変更で、設定によっては最大5年間データが保持される建てつけに変わりました[^15]。エンタープライズ用途では商用プランかEnterpriseプランを選び、Zero Data Retention契約を結ぶのが正解です。Claude Code単体でも、Enterprise契約配下ならZDRが効きます[^14]。PIAでは、ログ保持期間、保持場所、アクセス権限、削除手順を全部書き出します。
3つめは再識別リスクです。匿名化したつもりのコードコメントから顧客名が復元されたり、社内のテストデータがプロンプトに残って次の会話で漏洩する事故は実例があります。サムスン電子は2023年に従業員のChatGPT入力経由で機密漏洩を起こし、生成AI利用を原則禁止に切り替えました。これは典型的な再識別と二次利用の合併症です。
PIA報告書のテンプレートは、JIPDEC(一般財団法人日本情報経済社会推進協会)や個人情報保護委員会のサンプルが使えます。私たちは、ZEROCK導入案件ではPIAを必須プロセスとしてお客様と一緒に回しています。「面倒な書類仕事」と思われがちですが、実際にやってみると要件定義の質が上がるので、現場の納得感もあがります。
PIAは一度作って終わりではなく、年1回または重大変更時に再評価する運用が原則です。Claude Code側の規約変更も毎年起きるので、再評価のトリガーを社内ルールに組み込んでおくと安心です。
5. 違反事例と罰則、現場で起きやすい落とし穴
最後に、実際に起きた違反事例と、これから増える罰則を見ます。
2023年6月2日、個人情報保護委員会はOpenAIに対し国内初の生成AIサービスへの行政指導を行いました[^7]。指導内容は、要配慮個人情報を本人同意なく機械学習に用いないこと、利用者と利用者以外の本人から要配慮個人情報を取得しないこと、利用目的を日本語で通知することの3点。行政指導なので過料はないものの、対応状況は監督下に置かれます。海外でも、イタリアのGarante(個人データ保護機関)が2023年3月にChatGPTを一時利用禁止にし、同年4月に条件付きで解禁した事例があります。
国内企業の事例で公開ベースで参考になるのは、サムスン電子のケースです。2023年に従業員がChatGPTにソースコードや会議内容を入力し漏洩したことを受け、社内利用を原則禁止に切り替えました。日本企業でも金融機関を中心に、生成AIの全社導入を一時停止したケースがいくつか報じられました。
そして2026年通常国会で個人情報保護法の改正案が閣議決定されたことで、罰則の景色が変わります[^16]。千人以上の個人データを不正取得・利用した事業者に対し、得た利益相当額を課徴金として徴収する制度が新設される方向です。これまでは命令違反時の刑事罰に留まっていましたが、課徴金は行政処分として機動的に発動できるので、施行後はリスクが格段に上がります。
現場で起きやすい落とし穴を、私の経験から3つ挙げます。
ひとつは「プロンプト漏洩」。Slackのスクリーンショットで顧客名入りのClaude Codeのやり取りを共有してしまうケース。発信者本人は気づかないので、レビュー文化と自動マスキングの両輪で防ぐしかありません。ふたつめは「シャドーAI」。情報システム部の管理外で、現場が個人アカウントのClaudeを使い始めるパターン。これはエンタープライズ契約への一本化と、利用ログ管理ツールの導入で抑え込みます。Claude Codeのエンタープライズ運用についてはClaude Codeのセキュリティ実装に踏み込んだ内容を別途書いています。みっつめは「越境意識の欠落」。米国Anthropicに渡るデータが越境移転だという認識自体がない現場が、まだまだあります。データガバナンスの研修プログラムを年1回でいいので回してください。
地政学リスクの観点も忘れずに。中国系ITサービスの自治体利用が問題になった件は日本の自治体における中国製ITサービス排除の論点にまとめましたが、Anthropicは米国企業なので別軸の論点があります。経済安全保障推進法の特定重要物資・特定社会基盤役務に該当する業界では、米国企業へのデータ集中も評価対象になり得ます。
まとめ
ここまでの論点を、現場で使えるチェックリストの形で残します。
- AI事業者ガイドライン1.1版の3区分(AI開発者・提供者・利用者)で自社の立場を整理し、社内ツール化したら提供者責任が発生することを認識する
- 個人情報保護法18条(利用目的)、20条2項(要配慮個人情報)、28条(越境移転)の3条が生成AI利用の中心論点
- 商用プラン(API・Team・Enterprise)はモデル学習に使われない契約だが、Free/Pro/Maxは2025年9月28日からオプトアウト方式に切り替わったため、業務利用は商用プラン一択
- Claude for Enterprise配下のClaude CodeはZero Data Retention契約が可能で、プロンプトと応答が保存されない
- AI対応PIAは、学習データの来歴、ログの扱い、再識別リスクの3点を必ず織り込む
- 2026年通常国会で改正された個人情報保護法は課徴金制度を導入。施行後は罰則リスクが大幅に上がる
正直、「全部完璧にやってからAIを使う」のは現実的ではありません。私のおすすめは、まずClaude for Enterprise契約とZDR設定を整え、PIAの初版を3週間で書き、1年運用しながら改訂する進め方です。100点を待たず、60点でローンチして毎月足していくほうが、現場の腹落ちが進みます。
TIMEWELLでは、エンタープライズAI基盤のZEROCKを軸に、AI事業者ガイドライン対応から個人情報保護法のPIA設計、Claude Codeの社内展開ルールづくりまでを一気通貫でご支援しています。「うちの場合はどう線引きすべき?」というレベルから議論できる状態でお越しいただければ、最短で安全運用に持っていけます。
参考文献
[^1]: 経済産業省「AI事業者ガイドライン(第1.1版)概要」令和7年3月28日 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_2.pdf [^2]: 総務省「AI事業者ガイドライン(第1.1版)」令和7年3月28日 https://www.soumu.go.jp/main_content/001002576.pdf [^3]: ファクトリージャーナル「政府が事業者向けの統合版『AIガイドライン』を策定 人間中心など10原則」 https://factoryjournal.jp/42511/ [^4]: 伊藤忠テクノソリューションズ「AI事業者ガイドラインをザックリ理解しておこう」 https://www.ctc-g.co.jp/keys/blog/detail/ai-business-guidelines-key-points [^5]: 内閣府「人工知能基本計画」令和7年12月23日 閣議決定 https://www8.cao.go.jp/cstp/ai/ai_plan/aiplan_20251223.pdf [^6]: 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」令和5年6月2日 https://www.ppc.go.jp/news/careful_information/230602_AI_utilize_alert/ [^7]: 個人情報保護委員会 公表資料「生成AIサービスの利用に関する注意喚起等について」 https://www.ppc.go.jp/files/pdf/230602_kouhou_houdou.pdf [^8]: 個人情報保護委員会「個人情報の保護に関する法律についてのガイドライン(外国にある第三者への提供編)」 https://www.ppc.go.jp/personalinfo/legal/guidelines_offshore/ [^9]: 日本経済新聞「AI開発向け個人情報、本人同意求めず 政府が法改正準備」 https://www.nikkei.com/article/DGXZQOUA0639F0W5A200C2000000/ [^10]: 時事通信「『人種・信条』AI活用に同意不要 個人情報保護の要件緩和―政府検討」 https://www.jiji.com/jc/article?k=2025022200393&g=pol [^11]: PwC Japanグループ「AI事業者ガイドライン案 解説編」 https://www.pwc.com/jp/ja/knowledge/column/ai-governance/ai-guideline.html [^12]: 個人情報保護委員会「PIAの取組の促進について」2021年6月30日 https://www.ppc.go.jp/files/pdf/pia_promotion.pdf [^13]: Anthropic Privacy Center「Zero data retention agreements」 https://privacy.claude.com/en/articles/8956058-i-have-a-zero-data-retention-agreement-with-anthropic-what-products-does-it-apply-to [^14]: Claude Code Docs「Zero data retention」 https://code.claude.com/docs/en/zero-data-retention [^15]: ライフハッカー・ジャパン「Claudeとの会話を『AI学習に使われたくない』人が今すぐ見直したいプライバシー設定」 https://www.lifehacker.jp/article/2508-anthropic-training-ai-claude-user-conversations/ [^16]: 日本経済新聞「個人情報保護、違反企業に課徴金 法改正案を閣議決定」 https://www.nikkei.com/article/DGXZQOUA065240W6A400C2000000/
