Anthropic勝訴──連邦判事が国防総省のブラックリスト指定を「憲法修正第1条への報復」と断じた理由
「自国の企業を敵国扱いする法的根拠はどこにもない」。サンフランシスコの連邦裁判所から放たれた43ページの命令書が、AI業界と安全保障の関係を根本から問い直している。
「自国の企業を敵国扱いする法的根拠はどこにもない」。サンフランシスコの連邦裁判所から放たれた43ページの命令書が、AI業界と安全保障の関係を根本から問い直している。
連邦判事が下した「古典的な報復」という判断
サンフランシスコの連邦地方裁判所で、リタ・リン判事がAnthropicの仮差止命令を認める決定を下している。3月27日(日本時間)に出されたこの43ページにおよぶ命令書は、国防総省による「サプライチェーンリスク」指定とトランプ大統領の連邦機関へのClaude使用禁止令の双方を一時的に凍結する内容だ。
リン判事の言葉は、法廷文書としては異例の鋭さを帯びている。国防総省がAnthropicをブラックリストに載せた理由について、省内の記録を引きながら 「報道を通じた敵対的な態度」 が動機だったと指摘した。そのうえで、政府の調達姿勢に対して公の場で疑問を呈した企業を罰することは「古典的な違法な憲法修正第1条への報復」だと断じている。
ただし、判事は命令の発効を1週間猶予した。政府側が第9巡回控訴裁判所に上訴する時間を確保するためだ。戦いはまだ始まったばかりだとも言える。
2億ドル契約から「国家安全保障上の脅威」へ──8ヶ月の転落
この対立の根底にあるのは、たった2つの条件をめぐる交渉決裂だ。
Anthropicは2025年7月に国防総省と2億ドル(約320億円)規模の契約を締結し、米軍の機密ネットワークにAIモデルを展開した最初の企業となった。情報分析、作戦計画、サイバー作戦など幅広い分野でClaudeが活用されていた。
しかし9月以降、国防総省のGenAI.milプラットフォームへの本格展開を交渉する段階で、両者の溝が決定的になる。国防総省は「すべての合法的な目的」への無制限アクセスを要求した。Anthropicが譲らなかったのは2点だけだ。完全自律型兵器への使用禁止と、米国市民に対する大規模監視への使用禁止。CEOのダリオ・アモデイは「良心に従えば、この要求に応じることはできない」と表明した。
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
— Secretary of War Pete Hegseth (@SecWar) February 27, 2026
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
2月28日(日本時間)、国防長官ピート・ヘグセスはXで「サプライチェーンリスク指定」を宣言した。この指定は歴史的にHuaweiのような外国の敵対勢力にのみ適用されてきたもので、米国企業に公式に使われたのはAnthropicが初めてだ。同日、トランプ大統領もTruth Socialで全連邦機関にAnthropicの技術の即時使用停止を命じている。
判事が見抜いた「オーウェル的な論理」
リン判事は命令書の中で、政府の主張を一つずつ解体している。
国防総省側の弁護士は法廷で「Anthropicが将来的にClaudeを改変し、国家安全保障を脅かす可能性がある」と主張した。だがリン判事はこの論理を退け、サプライチェーンリスク指定を「法に反する可能性が高く、恣意的かつ気まぐれ」と評した。
「米国企業が政府との意見の相違を表明したことを理由に、潜在的な敵対者や破壊者として烙印を押されるという、このオーウェル的な概念を支持する法的根拠は、関連法規のどこにも存在しない」
命令書で特に注目すべきは、国防総省がかつてAnthropicをパートナーとして称賛し、厳格な安全保障審査を通過させていたという事実の指摘だ。同社が技術の使用方法について公に懸念を表明した途端に、態度が一変した。リン判事はこれを 「Anthropicを潰す計画」 と表現し、その目的は安全保障ではなく「罰」だったと結論づけている。
Microsoft、ACLU、退役軍人──異例の支持者たち
この裁判では、Anthropicの側に異例の幅広い支持が集まっている。Microsoft、ACLU(米国自由人権協会)、退役軍幹部らが法廷助言書(アミカス・ブリーフ)を提出した。OpenAI、Google、Google DeepMindのAI研究者らも支持の意を示した。
注目すべきは、Anthropicの直接的な競合であるOpenAIやGoogleの研究者までが名を連ねたことだ。この事実は、争点が「一企業の契約紛争」を超えていることを物語る。政府がAI企業に対して安全性の主張を理由にブラックリスト指定を行えるという前例ができれば、業界全体の萎縮効果は計り知れない。
一方で、リン判事自身が認めたように、国防総省にはどのAI製品を使うかを選ぶ権利がある。問題は「使わない」ことではなく、その先にある報復的措置だ。Claudeの使用を単にやめるだけなら、サプライチェーンリスク指定は不要だった。Amazon、Microsoft、Palantirといった防衛契約企業にまでAnthropicとの取引禁止を求めた時点で、それは契約終了を超えた制裁になっている。
勝ったのはAnthropicだけではない
仮差止命令の意味は、Anthropicの事業継続だけにとどまらない。
ワシントンD.C.の連邦控訴裁判所では、もう一つの訴訟が進行中だ。最終的な判決が出るまでには数ヶ月かかる可能性がある。政府が上訴すれば、最終的に最高裁まで争われるとの見方もある。
だが今回の命令書が示した原則は明確だ。「政府の方針に公然と異を唱えた」ことを理由に、米国企業を安全保障上の脅威として扱うことは、法的に許容されない。
AI技術が軍事・監視の領域に深く入り込む時代に、企業が「どう使われるか」について声を上げる権利は守られるべきなのか、それとも国家安全保障の前に沈黙すべきなのか。43ページの命令書は、少なくとも現時点では前者に軍配を上げた。
だが判事も言っている。これはまだ「仮」の判断に過ぎない。
参照元
#Anthropic #国防総省 #AI安全保障 #サプライチェーンリスク #憲法修正第1条 #Claude #仮差止命令 #情報の灯台