マスクが法廷で認めた「Grokは部分的にOpenAIで訓練」
連邦裁判所の証言台で、イーロン・マスク氏がxAIはOpenAIのモデルを「部分的に」蒸留してGrokを訓練したと認めた。長年噂されてきた米国AI企業同士の相互学習が、初めて公の場で確認された瞬間だ。
連邦裁判所の証言台で、イーロン・マスク氏がxAIはOpenAIのモデルを「部分的に」蒸留してGrokを訓練したと認めた。長年噂されてきた米国AI企業同士の相互学習が、初めて公の場で確認された瞬間だ。
「partly」――一語で動く業界の前提
カリフォルニア北部地区の連邦裁判所、4月30日。証言台のイーロン・マスク氏に向けて、OpenAI側の主任弁護士ウィリアム・サビット氏が短く問いを投げた。xAIはGrokの訓練でOpenAIのモデルに蒸留(distillation)を使ったか、と。
マスク氏の最初の答えは「AI企業は一般的に他社のAIを蒸留する」という業界全体の話への置き換えだった。サビット氏が「それはイエスか」と詰めると、返ってきたのは一語、「partly」。日本語に置き換えれば「部分的に」となる。
たった一言だが、業界の景色は確実に動いた。これまで米国の主要AI開発者がライバルのモデルを使って自社モデルを育てたと公的に認めた例はほとんどない。テック業界の人間は、米国のAI研究所同士もこの手法をお互いに使っていると以前から想定してきたが、その想定が法廷の宣誓供述で輪郭を持った。
蒸留:大きな教師モデルが学習した知識を、より小さな生徒モデルに移し替える機械学習の技法。教師モデルのAPIや公開インターフェースに大量の質問を投げ、その出力を学習信号として使う。
蒸留とは何か――そして、なぜ揉めるのか
蒸留は、巨大なモデル(教師)に質問を投げ、その出力を「正解」として扱うことで、別のモデル(生徒)を訓練する手法だ。教師モデルが学習に投じた何十億ドルものコストを、生徒は数分の一の費用で吸収できる。
OpenAIやAnthropicは、自社モデルが他社の踏み台にされることを強く嫌っている。Benzingaの報道によれば、蒸留は OpenAIの利用規約で禁止 されている行為だという。理由はシンプルで、計算インフラへの巨額投資という参入障壁が、APIを叩くだけで突破されてしまうからだ。
技術自体は古い。2015年にGoogleの研究者3人が論文として発表し、ジェフリー・ヒントン氏も執筆者に名を連ねていた。AI企業のあいだではほぼ標準装備の道具で、自社のフラッグシップから軽量モデルを派生させるためにも日常的に使われている。問題は、それを誰のモデルに対して使うかだ。
これまで蒸留が議論される文脈は、ほぼ中国だった。DeepSeekがOpenAIモデルを蒸留してわずか10分の1のコストで匹敵する性能を出した事例、Anthropicが2026年2月に複数の中国系開発者を不正アカウント経由のClaude蒸留で告発した事例、そしてホワイトハウスが先週警告した「産業規模」の盗用キャンペーン。敵は太平洋の向こう側、という構図だった。
内輪でもやっていた、という静かな衝撃
マスク氏の証言は、その構図に一本の線を引き直す。Grokを擁するxAIは2023年に立ち上げられた米国企業であり、CEO本人が法廷で「partly」と認めた以上、これは中国の話ではない。米国のフロンティア研究所同士が、表向きは規約で禁じ合いながら、裏では互いのモデルから学んでいる――そんな見立てが、もはや「うわさ」では済まなくなった。
皮肉も効いている。OpenAI、Anthropic、Googleは2023年に Frontier Model Forum を共同で立ち上げ、最近では中国を含む蒸留攻撃に対抗する情報共有まで始めた。そのOpenAIのモデルから、xAIが部分的に学んでいたという構図は、フォーラムの結束に小さな亀裂を覗かせる。
しかも証言にはもうひとつ刺がある。Bloombergは別途、xAIのエンジニアがコーディングでAnthropicのモデルに頼っていると報じている。標的はOpenAIだけではない。
米国のAI開発者が他社モデルを蒸留している――この想定は業界内部では半ば公然の秘密だったが、宣誓供述という形で公の記録に残ったのは今回が初めてだ。
法的には黒なのか、灰色なのか
蒸留が違法かどうかは、まだはっきりしない。著作権法の枠組みで明示的に禁じられているわけではなく、争点は各社の利用規約とAPI契約の解釈に移る。OpenAIは規約で他モデル訓練を明確に禁じているため、xAIが本当にOpenAIのAPIを叩いていたなら、契約違反の構成は十分にあり得る。
ただし、立証は容易ではない。蒸留の痕跡は出力分布の癖として残ることはあっても、「このモデルはあのモデルから学んだ」と断定するのは技術的に難しい。マスク氏の「partly」という一言は、規約違反の直接証拠としては弱いが、業界の自白という意味では 想定以上に強い 。
蒸留の検知は、現状では大量の問い合わせパターンを分析するのが主流。OpenAIなどが疑わしい大量クエリを遮断する仕組みを整えつつあるが、いったん流出したモデル知識を取り戻すことはできない。
1500億ドル訴訟と、自家撞着の影
そもそも今回の証言は、別件の裁判での一幕である。Benzingaによれば、マスク氏はOpenAI、サム・アルトマン氏(CEO)、共同創業者のグレッグ・ブロックマン氏を相手取り、1500億ドル(約23兆5000億円)の損害賠償を求めて提訴している。OpenAIが当初の非営利の使命を裏切り、営利構造へと舵を切ったというのが訴えの骨子だ。
その裁判の証言台で、自社が相手のモデルを「部分的に」流用していたと認めるのは、 法廷戦術として明らかに苦しい 。陪審に対して「OpenAIは理念を捨てた」と訴える原告が、同じ口で「ただし我々もOpenAIの果実を借りている」と言ってしまった構図に近い。
裁判ではほかにも興味深い瞬間があった。マスク氏は世界のAI企業をランク付けするよう求められ、首位にAnthropic、続いてOpenAI、Google、中国のオープンソース勢、と並べた。自社xAIは「数百人規模の小さな会社」と表現したという。Grokを巡る誇大な発信を続けてきた人物の発言として、この控えめさは目を引く。
何が変わるのか
OpenAIとxAIはともに、本件についてコメント要請に即時の回答を出していない。Frontier Model Forumがどう動くかも未知数だ。中国向けの防御を共同で築く一方で、内輪の蒸留にどこまで踏み込めるかは、各社の利害が交錯する難しい論点になる。
長期的には、APIの利用規約をどう設計し、どう監視するかという地味な実務が、フロンティアモデルの競争条件を左右することになる。蒸留検知の精度が上がれば、米国内でも訴訟リスクが高まる。逆に、各社が黙認する方向に振れれば、 「投資した者だけが勝つ」 というフロンティア競争の前提そのものが揺らぐ。
「partly」という短い答えは、判決を待たずに業界の前提を少し動かしてしまった。
参照元
他参照