Anthropicの三重苦——赤字・中国AI・安全性の代償

「安全なAI」を掲げた企業が、安全であるがゆえに追い詰められている。皮肉というには、あまりに構造的な問題だ。

Anthropicの三重苦——赤字・中国AI・安全性の代償

「安全なAI」を掲げた企業が、安全であるがゆえに追い詰められている。皮肉というには、あまりに構造的な問題だ。


IPO前夜に突きつけられた現実

Anthropicが早ければ2026年10月にもIPOを検討していると、BloombergやThe Informationが相次いで報じている。投資銀行らは600億ドル(約9兆6,000億円)超の調達を見込む。2月に完了した300億ドル(約4兆8,000億円)のシリーズG、評価額3,800億ドル(約60兆9,000億円)という数字だけ見れば、順風満帆に映るだろう。

だが、その裏側の数字が別の物語を語っている。3月9日、連邦裁判所に提出された宣誓供述書の中で、CFOのクリシュナ・ラオはAnthropicの創業以来の総収益が「50億ドル超」であることを明かした。一方、推論とトレーニングだけで「100億ドル超」を費やしていると認めた。300億ドルを集めて、50億ドルしか稼げず、100億ドル使っている。算数としてはシンプルだが、事業としては深刻だ。

この宣誓供述書は、国防総省との訴訟で提出されたものだ。Anthropicが「安全なAI」の姿勢を貫いたことで、ペンタゴンから「サプライチェーンリスク」の烙印を押されるという前代未聞の事態に発展している。

さらに厄介なのは、Anthropicが公表してきた「年間換算収益」(ARR)との矛盾だ。2026年3月時点でARRは190億ドルと報じられているが、創業以来の実収益はその4分の1程度に過ぎない。スピードメーターは時速100マイルを示しているが、オドメーターはまだ40マイルしか進んでいない——テック批評家のエド・ジトロンは、そう表現した。


中国勢が上位6枠を独占するという現実

財務面の課題に加え、Anthropicにはもう一つの脅威がある。中国製AIモデルの急速な台頭だ。

開発者向けAPIプラットフォームOpenRouterのランキングでは、上位6モデルすべてが中国企業製だ。XiaomiのMiMo-V2-Pro、StepFunのStep 3.5 Flash、DeepSeek V3.2、MiniMaxのM2.7とM2.5、そしてz.aiのGLM 5 Turbo。Claude Opus 4.6とSonnet 4.6は7位と8位に甘んじている。

数字はさらに残酷だ。Anthropicのシェアは2025年3月22日の29.1%から、2026年3月21日には13.3%へと半減した。わずか1年でのことだ。

コストの壁が決定的な差を生む

コーディングツールKilo Codeが先日公開した比較テストは、この構図を端的に示している。MiniMax M2.7とClaude Opus 4.6に同一のタスクを与えた結果、バグ検出率とセキュリティ脆弱性の発見数はまったく同じだった。

違いはコストだ。Claude Opus 4.6のAPI料金は入力100万トークンあたり5ドル、出力25ドル。MiniMax M2.7は入力0.30ドル、出力1.20ドル。テスト全体のコストはClaudeが3.67ドル、MiniMaxが0.27ドル。品質の90%を、コストの7%で手に入る——開発者にとって、この数字は無視できない。

We Tested MiniMax M2.7 Against Claude Opus 4.6
MiniMax M2.7 launched on March 18 scoring 56.22% on SWE-Pro, close to Claude Opus 4.6.
米中経済安全保障委員会(USCC)は3月24日に公開した報告書で、中国のオープンソースAI戦略が「米国の西側大規模言語モデルとの性能差を縮めた」と指摘している。

もちろん、OpenRouterはAI市場の一断面に過ぎない。エンタープライズ市場ではAnthropicは依然として強い。Menlo Venturesの調査によれば、企業向けLLM支出の32〜40%をAnthropicが占めており、OpenAIを上回る。Rampの企業クレジットカード支出データでも、新規AI導入企業の約70%がOpenAIとの直接比較でAnthropicを選んでいる。

だが、開発者コミュニティでのシェア喪失は、将来のエンタープライズ導入に影を落とす。今日の開発者が明日の意思決定者だからだ。


「蒸留された」のか、追い越されたのか

中国AI企業によるClaudeの「蒸留」疑惑が、知的財産をめぐるAI業界の議論を揺さぶっている。Anthropicは2月、DeepSeek、Moonshot AI、MiniMaxの3社が約2万4,000の不正アカウントを通じて1,600万回以上の対話を生成し、Claudeの能力を不正に抽出したと告発した

MiniMaxだけで1,300万回以上を占めたという。Anthropicの主張によれば、新モデルをリリースした際、MiniMaxは24時間以内にトラフィックの半分をそのモデルに振り向けた。高度に組織的な「能力抽出」だ、とAnthropicは警告する。

だが、この告発には皮肉がつきまとう。The Registerが指摘するように、Anthropic自身のモデルも「しばしば同意なくコピーされたコンテンツ」から構築されている。蒸留を「窃盗」と呼ぶなら、学習データの無断使用はどう呼ぶべきか——この問いは、業界全体のブーメランとして跳ね返ってくる。

より本質的な問題は別にある。仮に蒸留を完全に防いだとしても、中国勢の価格優位は変わらない。補助金による電力コスト削減、効率的なMixture-of-Experts(MoE)アーキテクチャ、そしてオープンソースによる急速な反復開発。構造的なコスト差を「知的財産の保護」だけで埋めることはできない。


安全性の代償——離れるセキュリティ研究者たち

Anthropicが直面する第三の課題は、自らが選んだ「安全なAI」という路線そのものから生じている。

The Registerの取材に対し、複数のセキュリティ研究者がClaudeの過剰な検閲に失望を表明した。ある研究者は「CBRN(化学・生物・放射線・核)ブロッカーが極端に厳しくなった」と語り、誤検知が頻発している状況を証言している。月額200ドルのMaxサブスクリプションを解約し、周囲にも同様の理由で離脱した人が7人いるという。

象徴的なのは、トニー賞受賞ミュージカル「ユリンタウン」について会話しただけで安全性フラグが立ったというスクリーンショットだ。セキュリティの仕事には「デュアルユース」の性質がある。脆弱性を調べることと、それを悪用することは紙一重だ。だが、その紙一重を判断できないAIは、防衛者にとっても使い物にならない。

中国モデルへの移行という皮肉

別の研究者はThe Registerにこう語った。「今使っているのはMiniMaxという新しいモデルだ。Claudeの蒸留版だが、中国製かどうかは関係ない。安くて、Claudeの最良モデルと同等かそれ以上だ」。

Anthropic wins preliminary injunction in DOD fight as judge cites ‘First Amendment retaliation’
A federal judge in San Francisco granted Anthropic’s request for a preliminary injunction in its lawsuit against the Trump administration.
Anthropic自身もこの問題を認めている。Opus 4.6のリリース時に追加されたサイバーセーフガードが「正当な防御目的のセキュリティ活動をブロックする場合がある」と公式ドキュメントに記載されている。免除申請フォームは存在するが、全員が承認されるわけではなく、プロセスも迅速ではないという。

安全性を売りにしてエンタープライズ市場を獲得し、安全性を理由に国防総省と対立し、安全性の過剰適用でセキュリティ研究者を失う。そして彼らが向かう先は、Anthropicが「能力を盗んだ」と主張する中国製モデルだ。この循環構造は、単なるビジネス上の課題ではない。「安全なAI」というコンセプトそのものが内包する矛盾だ。


三重苦の先にあるもの

整理しよう。Anthropicは今、三つの圧力に同時にさらされている。

300億ドルを調達しながら赤字を垂れ流す財務構造。コストで10分の1以下の中国勢が品質で肉薄する競争環境。そして、自社のアイデンティティである「安全性」が顧客と政府の双方を遠ざけるという逆説。

エンタープライズ市場での強さは本物だ。裁判所がペンタゴンの「サプライチェーンリスク」指定を一時差し止めたことも、一定の安堵材料ではある。だが、IPOの投資家が見るのは成長率とマージンだ。そして中国勢との価格差は、エンタープライズの意思決定者がいつまでも無視できる水準ではない。

Anthropicは「安全で有能なAI」という両立を約束して市場に参入した。その約束を守り切れるかどうかが、IPO後の企業価値を決めるだろう。ただし、答えを出す猶予はあまり残されていない。


参照元

関連記事