EX-Check

AIと戦争の時代に、私たちはどう向き合うか ── Anthropicの声明から読み解く、テクノロジーと国家の未来

2026-03-02濱本 隆太

Anthropic CEOダリオ・アモデイが米国防総省に突きつけた声明の全文和訳と、AIの軍事利用・世論操作が民主主義に及ぼすリスクを解説。テクノロジー企業と国家の関係を問います。

AIと戦争の時代に、私たちはどう向き合うか ── Anthropicの声明から読み解く、テクノロジーと国家の未来
シェア

株式会社TIMEWELLの濱本です。今日はテック関連のサービスご紹介です。

……と、いつもの書き出しで始めてみたものの、今回ばかりは少しトーンを変えさせてください。2026年2月26日、AI企業Anthropicが出した一通の声明が、テクノロジー業界を超えて世界中に波紋を広げています。米国防総省に対して「その使い方には協力できない」と突きつけた、異例中の異例の文書です。

AIが自律的に人を殺す兵器になる。見えない手となって大衆の意見を操る。数年前ならSF映画の話だと笑い飛ばせたかもしれません。でも今、それが現実の政策議論のテーブルに載っている。私はこの事態を、テクノロジーに関わる一人の人間として、そして日本で事業を営む経営者として、正面から受け止めなければならないと感じました。

Anthropic社CEO ダリオ・アモデイによる国防総省との議論に関する声明(全文和訳)

原文は2026年2月26日にAnthropicの公式サイトで公開されたものです。


私は、米国および他の民主主義国家を防衛し、我々の独裁的な敵対勢力を打ち破るためにAIを使用することの根源的な重要性を深く信じています。

それゆえに、Anthropicは国防総省および諜報機関に我々のモデルを積極的に展開してきました。我々は、米国政府の機密ネットワークにモデルを展開した最初のフロンティアAI企業であり、国立研究所に展開した最初の企業であり、国家安全保障の顧客にカスタムモデルを提供した最初の企業です。Claudeは、諜報分析、モデリングとシミュレーション、作戦計画、サイバー作戦など、ミッションクリティカルなアプリケーションのために、国防総省や他の国家安全保障機関で広範囲に展開されています。

Anthropicはまた、会社の短期的な利益に反する場合でさえ、AIにおけるアメリカのリードを守るために行動してきました。我々は、中国共産党に関連する企業(その一部は国防総省によって中国軍事企業として指定されています)によるClaudeの使用を断つために数億ドルの収益を放棄することを選択し、Claudeを悪用しようとした中国共産党主催のサイバー攻撃をシャットダウンし、民主主義の優位性を確保するために半導体に対する強力な輸出規制を提唱してきました。

Anthropicは、軍事的な決定を下すのは民間企業ではなく国防総省であることを理解しています。我々は、特定の軍事作戦に異議を唱えたり、その場しのぎの方法で我々の技術の使用を制限しようとしたことは一度もありません。

しかし、ごく一部のケースにおいて、AIは民主的価値を守るのではなく、むしろそれを損なう可能性があると我々は信じています。いくつかの用途はまた、今日の技術が安全かつ確実に実行できる範囲を単純に超えています。そのような2つのユースケースは、これまで国防総省との契約に含まれたことはなく、今も含まれるべきではないと我々は考えています。

大規模な国内監視。 我々は、合法的な外国諜報および防諜任務のためのAIの使用を支持します。しかし、これらのシステムを大規模な国内監視に使用することは、民主的価値と相容れません。AIによる大規模監視は、我々の基本的な自由に対して深刻かつ新たなリスクをもたらします。そのような監視が現在合法である範囲は、法律がAIの急速に増大する能力にまだ追いついていないからに他なりません。例えば、現行法の下では、政府は令状なしに、アメリカ人の移動、ウェブ閲覧、交友関係の詳細な記録を公的な情報源から購入できます。この慣行は、諜報機関もプライバシーの懸念を認め、議会で超党派の反対を生み出しています。強力なAIは、この散在し、個々には無害なデータを、あらゆる個人の人生の包括的な全体像へと、自動的かつ大規模に組み立てることを可能にします。

完全自律型兵器。 今日のウクライナで使用されているような部分的に自律的な兵器は、民主主義の防衛に不可欠です。人間を完全にループから外し、標的の選択と交戦を自動化する完全自律型兵器でさえ、我々の国防にとって重要であることが証明されるかもしれません。しかし今日、フロンティアAIシステムは、完全自律型兵器を動かすには単純に信頼性が足りません。我々は、アメリカの兵士と民間人を危険に晒す製品を故意に提供することはありません。我々は、これらのシステムの信頼性を向上させるための研究開発で国防総省と直接協力することを申し出ましたが、彼らはこの申し出を受け入れませんでした。適切な監督なしでは、完全自律型兵器は、我々の高度に訓練されたプロの兵士が日々示す判断力を行使することを期待できません。それらは、今日存在しない適切なガードレールと共に配備される必要があります。

我々の知る限り、これら2つの例外は、これまで我々の軍隊内でのモデルの採用と使用を加速させる上での障壁にはなっていません。

国防総省は、彼らが「あらゆる合法的な使用」に同意し、前述のケースでセーフガードを撤廃するAI企業とのみ契約すると述べています。彼らは、我々がこれらのセーフガードを維持する場合、我々を彼らのシステムから排除すると脅迫してきました。彼らはまた、我々を「サプライチェーンリスク」、つまり米国の敵対者に留保され、アメリカ企業に適用されたことのないラベルに指定し、かつ、セーフガードの撤廃を強制するために国防生産法を発動すると脅迫してきました。後者の2つの脅威は、本質的に矛盾しています。一つは我々をセキュリティリスクとみなし、もう一つはClaudeを国家安全保障に不可欠とみなすものです。

いずれにせよ、これらの脅威は我々の立場を変えるものではありません。我々は良心に照らして彼らの要求に同意することはできません。

彼らのビジョンに最も合致する契約者を選ぶのは国防総省の特権です。しかし、Anthropicの技術が我々の軍隊に提供する相当な価値を考えると、彼らが再考することを我々は望みます。我々の強い希望は、我々が要求した2つのセーフガードを設けた上で、国防総省と我々の兵士に奉仕し続けることです。国防総省がAnthropicをオフボードすることを選択した場合、我々は、進行中の軍事計画、作戦、または他の任務に混乱を避けるため、別のプロバイダーへのスムーズな移行を可能にするために協力します。我々のモデルは、必要な限り、我々が提案した広範な条件で利用可能であり続けます。

我々は、米国の国家安全保障を支援するための我々の仕事を続ける準備ができています。

(出典: Anthropic公式サイト, 2026年2月26日公開)


輸出管理の課題を解決するには?

EX-Checkの機能と導入効果をまとめた資料をご覧ください。

この声明の何が衝撃的なのか

一民間企業が、世界最強の軍事組織に「No」を突きつけた。この事実だけでも十分に異例ですが、声明の中で暴露された国防総省側の対応がさらに衝撃的です。

時系列で整理してみます。

時期 出来事
2025年7月 イーロン・マスク氏率いるxAIが米国防総省と最大2億ドルの契約を締結。Grok for Governmentプログラムの一環としてAIモデルGrokを提供開始
2026年2月24日 国防長官ピート・ヘグセス氏がAnthropicのCEOダリオ・アモデイ氏に対し、軍にあらゆる合法的利用を認めるよう要求
2026年2月26日 アモデイCEOが声明を発表。大規模な国内監視と完全自律型兵器への技術提供を拒否。国防総省からサプライチェーンリスク指定や国防生産法発動の脅しを受けたことを公表
2026年2月27日 トランプ大統領が全連邦政府機関に対しAnthropicの技術使用を即時停止するよう命令。SNSで「我々にはあの会社のAIは必要ない」と投稿。国防総省はAnthropicをサプライチェーンリスクに正式指定

注目すべきは、国防総省がAnthropicに突きつけた脅しの矛盾です。「サプライチェーンリスク」に指定するということは、Anthropicを安全保障上の脅威とみなすこと。一方で「国防生産法を発動する」ということは、Anthropicの技術が国家安全保障に不可欠だと認めること。この二つは論理的に両立しません。声明の中でアモデイ氏自身がこの矛盾を指摘しているのは、なかなか皮肉が効いています。

結果として何が起きたか。倫理的なレッドラインを設けたAnthropicは排除され、そうした制約を設けないxAIのGrokが米国政府の公式AIサービスとしての地位を固めました。AI開発の方向性を決めるのは技術者の良心ではなく、国家の安全保障戦略と政治的判断である。そういう冷徹な現実が、ここに浮かび上がっています。

AIの軍事利用は、もう始まっている

Anthropicの懸念は杞憂ではありません。ウクライナの戦場では、AIを搭載したドローンが偵察から攻撃まで幅広く投入されています。人間のオペレーターが遠隔操作するものもあれば、一定の自律性を持って目標を追尾するものもある。戦争の様相は、すでに変わり始めています。

この現実を理解する上で、NVIDIAのCEOジェンスン・フアン氏が2026年1月のダボス会議で語った「AI 5層ケーキ」という概念が参考になります。フアン氏はAIインフラを5つの階層に分け、それぞれが巨大な産業を形成すると述べました。私がここで強調したいのは、この5つの層すべてが軍事利用可能な技術だということです。

階層 内容 軍事転用の可能性
第1層 エネルギー AIの計算処理に必要な膨大な電力供給 軍事AIの運用規模は国家のエネルギー戦略と直結する。データセンターの立地や電力供給網の確保が軍事的優位性の基盤になる
第2層 半導体 高性能GPUなどAIの頭脳となるチップ 米国の対中半導体輸出規制はこの層での優位性確保が目的。軍事AIの性能は搭載チップの性能で決まる
第3層 クラウドインフラ 大規模AIモデルを運用するデータセンターとネットワーク 国家機密を扱う軍事AIには政府専用のセキュアなクラウド環境が必要。米政府のJWCC、つまりJoint Warfighting Cloud Capabilityがその典型
第4層 AIモデル ChatGPTやClaude、Grokのような大規模言語モデル Anthropicと国防総省の対立はまさにこの層の話。どのモデルを採用し、どこまでの利用を許すかが争点になった
第5層 アプリケーション AIモデルを活用した具体的なサービスや機能 諜報分析、自律型兵器、サイバー戦争、兵站管理、世論操作など、軍事応用の最前線

余談ですが、フアン氏がこの概念を語ったダボス会議の場には、各国の政治指導者や軍関係者も多数出席していました。AIインフラの話をしているようで、実質的には国家間の技術覇権争いの地図を描いていたとも言えます。

見落としてはならないのが、第5層のアプリケーション層に含まれる世論操作や情報戦です。AIの脅威は、ミサイルやドローンといった物理的な兵器だけではない。むしろ、目に見えない情報空間での戦いのほうが、私たちの日常に直接的な影響を及ぼす可能性が高いのです。

見えない戦場 ── あなたの「意見」は本当にあなたのものか

正直なところ、私が今回の一連の出来事で最も危機感を覚えたのは、自律型兵器よりも世論操作のほうです。

Anthropicが懸念した大規模な国内監視は、情報戦の入り口に過ぎません。AIは、SNSの投稿、検索履歴、購買データといった膨大な個人情報を分析し、一人ひとりの政治的信条や価値観、心理的な弱点までを丸裸にできます。その分析結果に基づいて、個人ごとに最適化された情報を送り込む。ターゲティング広告の技術を、プロパガンダに転用するようなものです。

ディープフェイクの技術はすでに実用段階に入っています。本物と見分けのつかない偽の動画や音声を瞬時に作成し、特定の政治家を失脚させたり、社会に混乱を引き起こしたりすることが技術的には可能になっている。選挙前に特定の候補者が汚職に関与しているかのような精巧な偽動画が拡散されたら、どうなるか。たとえ後でフェイクだと判明しても、一度広がった疑念を完全に払拭することは困難です。

これは空想の話ではありません。ロシアによるウクライナ侵攻の初期段階で、ゼレンスキー大統領が国民に投降を呼びかけるディープフェイク動画がSNSで拡散されました。幸い、この偽動画はすぐに見破られましたが、技術の進歩とともに、見破ることはどんどん難しくなっていく。

日本も他人事ではありません。地政学的に複雑な環境に置かれている日本は、外国勢力による情報戦の標的になりうる立場にあります。特定の政策に対する国民の反発を煽る。社会の分断を助長する。同盟関係への不信感を植え付ける。こうした工作が、AIを使えば少人数で大規模に実行できてしまう。私たちが日々目にしているニュースやSNSの情報が、実は誰かの意図によって作られたものである可能性を、常に頭の片隅に置いておく必要があります。

株式会社TIMEWELLとしてのスタンス

ここまで読んでいただいた方には、AIがもたらす脅威の深刻さが伝わったのではないかと思います。ここからは、私たち株式会社TIMEWELLとしての立場を明確にします。

私たちのスタンスは、一言で言えば「目を背けず、正しく向き合う」。

AIの軍事利用という現実から目を逸らすことはできません。技術は中立であり、それ自体に善悪はない。問題は、誰が、何の目的で、どのような制約の下でそれを使うかです。

その上で、私たちは以下の立場を表明します。

AI技術は、他国への武力侵略に活用されるべきではない。外国勢力が他国の市民を欺き社会を分断させるための世論誘導に活用されるべきでもない。これは、私たちが譲ることのできない一線です。

Anthropicが示した倫理的なレッドライン、つまり大規模な国内監視と完全自律型兵器への技術提供拒否は、技術に携わるすべての企業と個人が真剣に受け止めるべき問題提起だと考えています。利益や国家の要求の前に、守るべき一線がある。Anthropicはそれを身をもって示しました。結果として政府との契約を失い、大統領から名指しで批判されるという代償を払ってでも。

ただし、理想論だけでは国は守れません。外国勢力がAIを悪用して攻撃を仕掛けてくる可能性が現実のものである以上、それに対抗する手段を持つことは不可欠です。

フアン氏が示したAIの5層構造を思い出してください。エネルギーから半導体、クラウド、モデル、アプリケーションに至るまで、すべての層が軍事利用可能な技術です。これらの技術は、外国勢力からの攻撃を抑止するために正しく活用されなければなりません。ここで言う「正しく」とは、厳格な倫理規定と、国民の代表である議会による民主的な統制の下で、という意味です。

Grokが米国の公式AIサービスとして採用された経緯を見ると、倫理的な制約を設けた企業が排除され、制約を設けない企業が選ばれるという構図が浮かび上がります。この構図が世界的な標準になってしまえば、AIの軍事利用に歯止めをかけることはますます難しくなる。だからこそ、民間の側から声を上げ続けることに意味があると私は考えています。

具体的に、私たちが提唱したいのは二つの軸です。

一つ目は、防衛のための抑制された活用。外国からのサイバー攻撃や情報戦を抑止し、国民の生命と財産を守るために、AI技術を防衛目的で研究・活用する必要性は認めます。ただし、人間の判断を介さない完全自律型兵器の開発と配備には極めて慎重であるべきです。Anthropicが指摘したように、現在のAI技術は完全自律型兵器を安全に運用できるほど信頼性が高くない。技術の暴走を防ぐためのガードレールを、開発と並行して、あるいはそれ以上に優先して設計する必要があります。

二つ目は、社会全体のデジタル免疫力の向上。技術的な防御策だけでは、巧妙化する情報戦を完全に防ぐことはできません。最終的に問われるのは、国民一人ひとりが偽情報やプロパガンダを見抜く力です。多様な情報源にアクセスし、情報の真偽を批判的に吟味する習慣を、社会全体で育んでいく。学校教育の現場から家庭、企業に至るまで、デジタル時代の市民としての基礎体力を高める取り組みが急務です。

ところで、私がこの記事を書いている今この瞬間にも、世界のどこかでAIを使った新しい兵器のテストが行われ、新しい偽情報キャンペーンが仕掛けられているかもしれません。技術の進歩は待ってくれない。だからこそ、議論を先送りにする余裕はないのです。

おわりに ── 未来を決めるのは技術ではなく、私たちの選択

Anthropicの声明は、AI開発の最前線にいる企業が、自らの創造物がもたらすリスクに対して真摯に向き合い、社会に警鐘を鳴らしたという点で、歴史的な意味を持つ文書だと思います。

AIという、人類の知性を超えうる可能性を秘めたテクノロジーを前に、私たちは岐路に立っています。その力を、相互理解を深め社会課題を解決するために使うのか。互いを監視し傷つけ合うための兵器にしてしまうのか。

未来は技術が自動的に決めるものではありません。その技術をどう使い、どう制御するかという、私たち自身の選択にかかっている。この問いから逃げることなく、一人ひとりが当事者として考え、議論し、行動していくこと。それが今、最も求められていることだと私は考えています。

テクノロジーは道具です。道具に罪はない。けれど、道具の使い方を決めるのは、いつだって人間の側です。


TIMEWELLが提供する輸出管理AIエージェント「EX-Check」は、先端技術が意図せず軍事転用されるリスクを未然に防ぐためのソリューションです。輸出管理の複雑な規制を理解し、貿易安全保障の観点から企業をサポートします。

参考文献

輸出管理の効率化をお考えですか?

外為法コンプライアンスの現状を3分で診断。リスクの可視化と改善のヒントをお届けします。

この記事が参考になったらシェア

シェア

メルマガ登録

AI活用やDXの最新情報を毎週お届けします

ご登録いただいたメールアドレスは、メルマガ配信のみに使用します。

無料診断ツール

輸出管理のリスク、見えていますか?

3分で分かる輸出管理コンプライアンス診断。外為法違反リスクをチェックしましょう。

EX-Checkについてもっと詳しく

EX-Checkの機能や導入事例について、詳しくご紹介しています。