OpenAI・Anthropic・Googleが共闘、中国への「蒸留」流出で情報共有
普段は顧客を奪い合う3社が、同じテーブルに着いた。引き金は、中国勢による大規模なモデル「吸い出し」だ。
ライバル3社が静かに手を組んだ
OpenAI、Anthropic、そしてAlphabet傘下のGoogleが、中国企業による敵対的な「蒸留(Distillation)」の検出で情報を共有し始めている。Bloombergが日本時間4月7日朝、関係者の話として報じた。
情報の受け渡し口になっているのは、3社が2023年にMicrosoftとともに設立した非営利団体 Frontier Model Forum(FMF)だ。サービス規約に違反する形で自社モデルの出力を抜き取ろうとする動きを、横断的に突き合わせる場として使われ始めた、という構図である。
蒸留そのものは、AI業界では日常的な手法だ。大きな「教師モデル」の出力を使って、小さな「生徒モデル」に同じ振る舞いを学ばせる。フロンティアラボ自身も、自社の軽量版を作るときに普通に使っている。問題は、他人の畑から黙って刈り取るときだ。
なぜ2月の告発から一歩進んだのか
思い出しておきたいのは、今年2月の一連の動きだ。Anthropicは、DeepSeek・Moonshot・MiniMaxの中国3社がClaudeに対して組織的な蒸留を仕掛けていたと公表した。不正アカウント約2万4000件を通じ、1600万件を超えるやり取りが抽出されていたという。うち1300万件以上はMiniMax単独によるものだ。OpenAIもほぼ同時期、米議会に同趣旨の文書を送っている。
あの時点では、3社はそれぞれ別々に声を上げていた。今回Bloombergが伝えたのは、その次の段階──告発から「防衛の連携」への移行である。
FMFは2025年3月、会員企業間で脆弱性・脅威・懸念される能力に関する情報を共有する初の合意を結んでいる。当初の主眼はCBRN(化学・生物・放射性物質・核)や高度サイバー攻撃への転用リスクだった。
そこに「敵対的蒸留」という新しい議題が正式に積まれた、と読める。FMF自身も2月下旬、同テーマの解説ブリーフを公開している。
技術として合法、運用として違反という灰色地帯
ここが今回の話のいちばん厄介な部分だ。蒸留は技術としてクロではない。クロなのは、規約で禁じられた使い方をすること、そして商用プロキシを噛ませて地域制限を迂回することだ。ClaudeはそもそもAPIが中国で提供されていない。にもかかわらず大量の口座が稼働していたなら、それは契約違反であり、同時に「誰かが仲介した」という話になる。
正当な利用と敵対的な抽出の境界は、実務上しばしば曖昧である。
シンガポール南洋理工大学のErik Cambria教授がCNBCにそう語っている。私は、ここに3社が共闘に踏み切った本当の理由があるように思う。個社単独では「言いがかり」に見えかねないが、3社が同じパターンを同じ時期に観測していたとなれば、話の重みはまったく違う。
180億ドルと、12パーセントという数字
背景にあるのは、冷たい経済だ。独立調査のEpochAIによれば、OpenAIとAnthropicの2社だけで2024年以降、研究開発向け計算資源に累計180億ドル(約2兆8700億円)を投じてきたとされる。その投資のリターンがAPI収益で回収される前に、出力だけが抜かれて格安の競合として戻ってくる──これが米側の見立てだ。
API中継サービスOpenRouterの流通データでは、Anthropicのシェアがこの1年で約40%から12%へと急落し、入れ替わりにMiniMaxが20%に達したという集計もある。真偽と恒常性は割り引いて読む必要があるが、少なくとも「のんびりしていると飲み込まれる」という恐怖は本物だ。
| 提供者 | 1年前 | 直近 | 変化 |
|---|---|---|---|
| Anthropic | 約40% | 約12% | −28pt |
| MiniMax | 僅少 | 約20% | +急伸 |
蒸留されたモデルは、元モデルに施された安全対策を引き継がないまま拡散する可能性がある。
FMFの解説ブリーフはその点を繰り返し強調している。経済的な損失の話と、安全性の話が、ここで重なる。
それでも残る、ひとつの居心地の悪さ
締めくくりに、触れておかなければならないことがある。学習データをめぐって書籍海賊版リポジトリ利用の疑いで訴えられているのは、ほかでもないAnthropic自身だ。OpenAIもニューヨーク・タイムズとの著作権訴訟を抱えている。自分たちが集めたデータの出所はやや曖昧に処理しておきながら、自社モデルの出力を抜かれることには厳格に抗議する。この非対称は、外野から見れば冷笑の対象にしかならない。
もっとも、「自分も完璧ではない」ことと「他人の不正を問題にできない」ことは別の話だ。業界の自治が機能するのか、それとも結局は米政府の輸出規制と制裁が前面に出てくるのか。今回の3社の共闘は、その分岐点に置かれた最初の試金石になる。
半年後、この情報共有が数字で語られているのか、それとも静かに立ち消えているのか。そこを見届けたい。
参照元
- Bloomberg - OpenAI, Anthropic, Google Unite to Combat Model Copying in China
- Frontier Model Forum - Issue Brief: Adversarial Distillation
他参照
関連記事
- Claudeサブスク、サードパーティ切り離しへ──OpenClaw問題の最終章
- Anthropicの三重苦——赤字・中国AI・安全性の代償
- OpenAIのCEOとCFOがIPO時期で対立、経営の亀裂が表面化
- ハリウッドに蔓延する「影のAI」、壊れゆく出世の梯子
- ChatGPTの「安全な箱」にDNSの穴——データ漏洩脆弱性の全容
- AIの「おべっか」が人間の判断力を蝕む
- ChatGPT「大人モード」無期限凍結──OpenAIの焦燥
- OpenAIがGoogle検索の「選択画面」にChatGPTを載せろと要求した理由
- Claude Code劣化問題、AMDのAI責任者が膨大なログで告発
- ザッカーバーグが20年ぶりコード復帰、使うのはClaude Code