株式会社TIMEWELLの濱本 隆太です。
「うちの会社、ChatGPT利用は禁止していないけど、推奨もしていない。なんとなく黙認しているのが現状」——情シス責任者やCISOから、この10ヶ月で何度も聞いた言葉です。
しかし2026年5月、状況は明確に変わっています。Reco社が2025年に発表した調査では、ナレッジワーカーの71%が承認外AIを業務利用しており、68%が個人アカウントでChatGPT等を利用、うち57%が機微データを入力していたと報告されています。同時に、経済産業省と総務省は2026年3月31日に 「AI事業者ガイドライン 第1.2版」 を公表し、AIエージェント・フィジカルAIへの対応を含む新たな指針を打ち出しました。
「黙認」のコストは、これまで以上に高くなっています。本記事では、シャドーAIの実態と、ガイドライン準拠の社内ポリシー設計を3段階で解説します。
要約
- シャドーAIの本質は 「禁止しても、推奨しても、黙認しても、結局漏れる」 構造
- 経産省AI事業者ガイドライン v1.2 はAI 利用者 にも明確な義務を課す内容に進化した
- 解は「禁止 vs 黙認」の二者択一ではなく、可視化→社内代替→継続教育 の3段階アプローチ
なぜシャドーAIは止まらないのか — 構造的理由
シャドーAIが他のシャドーITと違うのは、「生産性向上が定量的に体感できてしまう」 点です。
- 議事録の文字起こしから要約まで5分(従来の30分→5分)
- 英文メールの作成5秒(従来の15分→5秒)
- コードのバグ修正案を即座に提示
この体感の前に、「会社のポリシー」「契約書の学習除外条項」「データ分類規程」といった抽象的なガードレールはほぼ無力です。
Reco 2025の調査は次の事実を明らかにしました:
- 71% が承認外AIを業務利用
- 68% が個人アカウントでChatGPTを使用
- そのうち57% が機微データを入力した経験あり
「ガバナンスが効いていない」のではなく、「禁止の言葉は届いているが、生産性の引力に負けている」 が正しい構造理解です。
AIセキュリティ研修を、本気で
OWASP・NIST・ISO 42001・経産省ガイドライン全準拠の2日間集中講座。経営層と現場で分けて受講できます。
Samsung情報漏洩 — 何が起きて、何が変わったのか
シャドーAIを語る上で外せないのが、2023年3月のSamsung Electronics事案です。
20日以内に3件、半導体測定プログラムのソースコード、社内会議録の文字起こし、機密会議の議事録などが従業員によってChatGPTに入力されました。Samsungは 社内ChatGPT利用を全面禁止 し、独自の社内AIアシスタント開発に切り替えました。
教訓は「Samsungがしたから禁止しよう」ではありません。教訓は、**「禁止に踏み切った企業ですら、内製代替手段が間に合わないと業務が止まる」**という現実です。Samsungがあれだけ素早く独自AIに移行できたのは、もとから内製ITリソースが潤沢だったから。日本の中堅企業の大半には、その猶予はありません。
経産省 AI事業者ガイドライン 第1.2版 — 2026年3月版の要点
2026年3月31日に公表された第1.2版は、第1.0版(2024年4月)・第1.1版(2025年3月)に続く更新です。主な変更点:
| 観点 | 第1.2版での進化 |
|---|---|
| 対象主体 | AI開発者・AI提供者・AI利用者(事業者) の3区分を明確化 |
| AIエージェント | 自律的に動作するAIエージェントへの責任分界の言及 |
| フィジカルAI | ロボット・自動運転など物理世界に作用するAIへの留意点 |
| 共通指針 | 人間中心、安全性、公平性、プライバシー、セキュリティ確保、透明性、説明可能性、教育・リテラシー、AC(Accountability)、イノベーション |
特に重要なのは、AI利用者である事業者にも明確な責任が記載された点です。「自社で開発していないから関係ない」では済まなくなりました。ChatGPTを業務利用している全企業が、利用者としてのガバナンス責任を負う構造になっています。
「禁止」と「黙認」の二者択一からの脱出 — 3段階アプローチ
シャドーAI対策の本丸は、二者択一を超える設計です。
段階1:可視化(Visibility)
まず「自社で誰が、何を、どれだけ使っているか」を見えるようにすることが第一歩です。
実装の手段:
- CASB / SSE による生成AIサービスの利用状況可視化(Netskope、Zscaler等)
- プロキシ・DNSログの分析で
chat.openai.comclaude.aicopilot.microsoft.comなどへのアクセスを把握 - エンドポイント側でのDLP(Symantec DLP、Microsoft Purview)で機微データの送信を検知
可視化なしのポリシーは、効果測定不能の精神論です。
段階2:社内代替の整備(Sanctioned Alternative)
可視化と並行して、承認された生成AI環境を提供します。これがないと、いくら禁止しても従業員は個人アカウントへ流れます。
選択肢:
- ChatGPT Enterprise / Microsoft 365 Copilot / Claude for Work — SaaS型でDPA・学習除外契約が明確
- Azure OpenAI Service / Amazon Bedrock — 自社クラウド内でLLM利用
- TIMEWELL ZEROCK — GraphRAG・AWS国内サーバ・ナレッジコントロール込みのエンタープライズAI
提供する際の必須要件:
- 入力データが学習に使われないことを契約で保証
- SSO/IdP連携で個人アカウントとの境界を明確化
- ログ取得とDLP連携
- 用途別のシステムプロンプト管理
段階3:継続教育(Continuous Literacy)
ポリシーと環境だけでは不十分です。「なぜそのルールがあるのか」を従業員が理解しないと、定期的に逸脱者が出ます。
教育の柱:
- 入社時オンボーディングに 「生成AI利用 30分研修」 を組み込む
- 半年に1回、現実のインシデント事例(Samsung、Air Canada、ハルシネーション訴訟) を共有
- 経営層自身が 「私もChatGPTで議事録要約をやっている、ただし社内のChatGPT Enterprise版で」 とロールモデルになる
- 違反者処分の事例公開(個人を特定せずに、再発防止の観点で)
社内ガイドライン雛形 — チェックリスト10項目
以下は、ガイドライン v1.2 に準拠した社内ポリシーに最低限含めるべき項目です。
- 対象範囲:従業員・契約社員・業務委託・外注先まで明示
- 承認されたAIサービスのホワイトリスト:定期更新
- 入力禁止データの定義:PII、顧客名簿、未公開財務、ソースコード、契約書、医療情報等
- 出力の検証義務:生成AI出力は「ユーザー入力相当」として扱い、引用元検証必須
- 対外公開時の表示義務:AI生成コンテンツである旨の明示(出版・広告・記事)
- インシデント報告窓口:誤入力・誤出力・ハルシネーションが発覚した時の連絡先
- モニタリングと監査:会社が利用ログを取得する旨の同意取得
- 違反時の処分:軽微〜重大の段階別対応
- 見直し頻度:四半期に1回の改定レビュー
- 法務・コンプライアンス・情シス・人事の責任分界
WARP SECURITYでの位置づけ
TIMEWELLの WARP SECURITY では、このSamsung型情報漏洩シナリオを5シナリオ疑似インシデント演習の1番目として扱います。
経営層DAYでは、「自社でシャドーAIが起きていると分かった時、最初の72時間で何をすべきか」をロールプレイで学びます。情シス・法務・人事・広報の責任分界を、その場で議論しながら設計します。
現場DAYでは、CASB導入、DLP設定、社内代替AI(ZEROCK含む)の選定基準、SSOによる個人アカウント分離まで踏み込みます。
参加企業には、経産省AI事業者ガイドライン v1.2に準拠した社内ポリシー雛形を受講特典として提供します。
まとめ
- シャドーAIの71%は 「禁止と黙認」の二者択一では止まらない
- 経産省 AI事業者ガイドライン v1.2 は AI利用者にも明確な責任を求める
- 解は 可視化→社内代替→継続教育 の3段階アプローチ
- 「うちは禁止しています」で安心している企業は、最も危ない
シャドーAIの問題は、技術の問題ではなく経営の問題です。可視化なしのポリシーは飾り、社内代替なしの禁止は形骸化、継続教育なしの規程は陳腐化します。3段階を同時並行で動かしてはじめて、ガバナンスが機能します。
