Anthropicの三重苦——赤字・中国AI・安全性の代償
「安全なAI」を掲げた企業が、安全であるがゆえに追い詰められている。皮肉というには、あまりに構造的な問題だ。
「安全なAI」を掲げた企業が、安全であるがゆえに追い詰められている。皮肉というには、あまりに構造的な問題だ。
IPO前夜に突きつけられた現実
Anthropicが早ければ2026年10月にもIPOを検討していると、BloombergやThe Informationが相次いで報じている。投資銀行らは600億ドル(約9兆6,000億円)超の調達を見込む。2月に完了した300億ドル(約4兆8,000億円)のシリーズG、評価額3,800億ドル(約60兆9,000億円)という数字だけ見れば、順風満帆に映るだろう。
だが、その裏側の数字が別の物語を語っている。3月9日、連邦裁判所に提出された宣誓供述書の中で、CFOのクリシュナ・ラオはAnthropicの創業以来の総収益が「50億ドル超」であることを明かした。一方、推論とトレーニングだけで「100億ドル超」を費やしていると認めた。300億ドルを集めて、50億ドルしか稼げず、100億ドル使っている。算数としてはシンプルだが、事業としては深刻だ。
この宣誓供述書は、国防総省との訴訟で提出されたものだ。Anthropicが「安全なAI」の姿勢を貫いたことで、ペンタゴンから「サプライチェーンリスク」の烙印を押されるという前代未聞の事態に発展している。
さらに厄介なのは、Anthropicが公表してきた「年間換算収益」(ARR)との矛盾だ。2026年3月時点でARRは190億ドルと報じられているが、創業以来の実収益はその4分の1程度に過ぎない。スピードメーターは時速100マイルを示しているが、オドメーターはまだ40マイルしか進んでいない——テック批評家のエド・ジトロンは、そう表現した。
中国勢が上位6枠を独占するという現実
財務面の課題に加え、Anthropicにはもう一つの脅威がある。中国製AIモデルの急速な台頭だ。
開発者向けAPIプラットフォームOpenRouterのランキングでは、上位6モデルすべてが中国企業製だ。XiaomiのMiMo-V2-Pro、StepFunのStep 3.5 Flash、DeepSeek V3.2、MiniMaxのM2.7とM2.5、そしてz.aiのGLM 5 Turbo。Claude Opus 4.6とSonnet 4.6は7位と8位に甘んじている。
数字はさらに残酷だ。Anthropicのシェアは2025年3月22日の29.1%から、2026年3月21日には13.3%へと半減した。わずか1年でのことだ。
コストの壁が決定的な差を生む
コーディングツールKilo Codeが先日公開した比較テストは、この構図を端的に示している。MiniMax M2.7とClaude Opus 4.6に同一のタスクを与えた結果、バグ検出率とセキュリティ脆弱性の発見数はまったく同じだった。
違いはコストだ。Claude Opus 4.6のAPI料金は入力100万トークンあたり5ドル、出力25ドル。MiniMax M2.7は入力0.30ドル、出力1.20ドル。テスト全体のコストはClaudeが3.67ドル、MiniMaxが0.27ドル。品質の90%を、コストの7%で手に入る——開発者にとって、この数字は無視できない。

米中経済安全保障委員会(USCC)は3月24日に公開した報告書で、中国のオープンソースAI戦略が「米国の西側大規模言語モデルとの性能差を縮めた」と指摘している。
もちろん、OpenRouterはAI市場の一断面に過ぎない。エンタープライズ市場ではAnthropicは依然として強い。Menlo Venturesの調査によれば、企業向けLLM支出の32〜40%をAnthropicが占めており、OpenAIを上回る。Rampの企業クレジットカード支出データでも、新規AI導入企業の約70%がOpenAIとの直接比較でAnthropicを選んでいる。
だが、開発者コミュニティでのシェア喪失は、将来のエンタープライズ導入に影を落とす。今日の開発者が明日の意思決定者だからだ。
「蒸留された」のか、追い越されたのか
中国AI企業によるClaudeの「蒸留」疑惑が、知的財産をめぐるAI業界の議論を揺さぶっている。Anthropicは2月、DeepSeek、Moonshot AI、MiniMaxの3社が約2万4,000の不正アカウントを通じて1,600万回以上の対話を生成し、Claudeの能力を不正に抽出したと告発した。
MiniMaxだけで1,300万回以上を占めたという。Anthropicの主張によれば、新モデルをリリースした際、MiniMaxは24時間以内にトラフィックの半分をそのモデルに振り向けた。高度に組織的な「能力抽出」だ、とAnthropicは警告する。
だが、この告発には皮肉がつきまとう。The Registerが指摘するように、Anthropic自身のモデルも「しばしば同意なくコピーされたコンテンツ」から構築されている。蒸留を「窃盗」と呼ぶなら、学習データの無断使用はどう呼ぶべきか——この問いは、業界全体のブーメランとして跳ね返ってくる。
より本質的な問題は別にある。仮に蒸留を完全に防いだとしても、中国勢の価格優位は変わらない。補助金による電力コスト削減、効率的なMixture-of-Experts(MoE)アーキテクチャ、そしてオープンソースによる急速な反復開発。構造的なコスト差を「知的財産の保護」だけで埋めることはできない。
安全性の代償——離れるセキュリティ研究者たち
Anthropicが直面する第三の課題は、自らが選んだ「安全なAI」という路線そのものから生じている。
The Registerの取材に対し、複数のセキュリティ研究者がClaudeの過剰な検閲に失望を表明した。ある研究者は「CBRN(化学・生物・放射線・核)ブロッカーが極端に厳しくなった」と語り、誤検知が頻発している状況を証言している。月額200ドルのMaxサブスクリプションを解約し、周囲にも同様の理由で離脱した人が7人いるという。
象徴的なのは、トニー賞受賞ミュージカル「ユリンタウン」について会話しただけで安全性フラグが立ったというスクリーンショットだ。セキュリティの仕事には「デュアルユース」の性質がある。脆弱性を調べることと、それを悪用することは紙一重だ。だが、その紙一重を判断できないAIは、防衛者にとっても使い物にならない。
中国モデルへの移行という皮肉
別の研究者はThe Registerにこう語った。「今使っているのはMiniMaxという新しいモデルだ。Claudeの蒸留版だが、中国製かどうかは関係ない。安くて、Claudeの最良モデルと同等かそれ以上だ」。

Anthropic自身もこの問題を認めている。Opus 4.6のリリース時に追加されたサイバーセーフガードが「正当な防御目的のセキュリティ活動をブロックする場合がある」と公式ドキュメントに記載されている。免除申請フォームは存在するが、全員が承認されるわけではなく、プロセスも迅速ではないという。
安全性を売りにしてエンタープライズ市場を獲得し、安全性を理由に国防総省と対立し、安全性の過剰適用でセキュリティ研究者を失う。そして彼らが向かう先は、Anthropicが「能力を盗んだ」と主張する中国製モデルだ。この循環構造は、単なるビジネス上の課題ではない。「安全なAI」というコンセプトそのものが内包する矛盾だ。
三重苦の先にあるもの
整理しよう。Anthropicは今、三つの圧力に同時にさらされている。
300億ドルを調達しながら赤字を垂れ流す財務構造。コストで10分の1以下の中国勢が品質で肉薄する競争環境。そして、自社のアイデンティティである「安全性」が顧客と政府の双方を遠ざけるという逆説。
エンタープライズ市場での強さは本物だ。裁判所がペンタゴンの「サプライチェーンリスク」指定を一時差し止めたことも、一定の安堵材料ではある。だが、IPOの投資家が見るのは成長率とマージンだ。そして中国勢との価格差は、エンタープライズの意思決定者がいつまでも無視できる水準ではない。
Anthropicは「安全で有能なAI」という両立を約束して市場に参入した。その約束を守り切れるかどうかが、IPO後の企業価値を決めるだろう。ただし、答えを出す猶予はあまり残されていない。
参照元
関連記事
- AIの「感情」が脅迫を生んだ――Anthropic衝撃の実証研究
- Claude Code流出で露になった「眠るAI」の全貌
- Claude使用制限が「想定外の速さ」で枯渇――三重苦の正体
- Bluesky新アプリ「Attie」が問う、AIとSNSの正しい距離感
- AIの「おべっか」が人間の判断力を蝕む
- サンダース議員のClaude尋問が映したAIの本当の欠陥
- Claudeがあなたのパソコンを「操作」する時代が来た
- Claude Codeソース流出が招いた罠:偽リポジトリがマルウェアを配布
- AIは流暢に日本語を話す。だが「考えている」のはアメリカ人の頭で、という研究
- SpaceX、1.75兆ドルの史上最大IPOを秘密裏に申請
