DeepSeek V4公開、自ら「3〜6ヶ月の遅れ」を明記

DeepSeek V4公開、自ら「3〜6ヶ月の遅れ」を明記
DeepSeek

DeepSeek(ディープシーク)がV4 ProとV4 Flashのプレビュー版を公開した。驚くべきはモデル自体ではなく、技術レポートで自ら「フロンティアから約3〜6ヶ月遅れ」と書いたことだ。新リリースでハンディを宣言するラボは珍しい。


自己評価で「3〜6ヶ月遅れ」と明言する異例のリリース

DeepSeekは24日、総パラメータ1.6兆(アクティブ49B)の巨大モデル「V4 Pro」と、284B(アクティブ13B)の「V4 Flash」のプレビュー版をHugging Faceで公開した。R1が世界を揺るがした2025年1月から約1年3ヶ月ぶりのフラッグシップ更新となる。

注目すべきは性能そのものより、同社の自己評価だ。技術レポートではV4-Pro-Maxの性能について、GPT-5.4とGemini-3.1-Proに「わずかに及ばない」と認めたうえで、「最先端モデルから約3〜6ヶ月遅れた 開発軌道 にある」と明記している。

新モデルの発表で自らハンディキャップを宣言するAIラボは珍しい。通常この種のリリースは「state-of-the-art超え」を強調する場になるからだ。DeepSeekがこの表現を選んだ理由は、単なる謙遜ではなく戦略的な意図があるのではないか、と見る向きもある。次のV5でもし1〜2ヶ月差まで縮まれば、それ自体がニュースになる。

DeepSeek V4-Pro / V4-Flash 主要仕様
項目 V4-Pro V4-Flash
総パラメータ数 1.6兆 284B
アクティブパラメータ 49B 13B
アーキテクチャ MoE MoE
コンテキスト長 100万トークン 100万トークン
事前学習トークン 32兆以上 32兆以上
ライセンス MIT MIT
入力料金(100万トークン) 1.74ドル 0.14ドル
出力料金(100万トークン) 3.48ドル 0.28ドル
学習に用いたチップ ファーウェイ Ascend
※ 価格はcache-miss時の標準料金。出典: DeepSeek-V4-Pro Model Card(Hugging Face)

コードでは並び、知識では負ける

実際の数字を見ると、V4-Pro-MaxはClaude Opus 4.6やGPT-5.4相手に健闘している。競技プログラミングのCodeforces RatingではV4-Pro-Maxが3206を記録し、GPT-5.4の3168、Gemini 3.1 Proの3052を上回った。LiveCodeBenchでも93.5%でトップに立つ。

一方で、MMLU-ProではGemini 3.1 Proの91.0に対しV4-Pro-Maxは87.5、SimpleQAに至ってはGeminiの75.6に対して57.9と、世界知識系ベンチマークで明確に劣後する。数学・コーディングでは肩を並べるが、幅広い知識では追いつけていない。この非対称性こそ、DeepSeek自身が 「3〜6ヶ月遅れ」 と表現した中身だろう。

V4-Pro-MaxはGPT-5.2とGemini-3.0-Proを標準的な推論ベンチマークで上回るものの、GPT-5.4およびGemini-3.1-Proにはわずかに及ばない(DeepSeek技術レポート)

ここには含意がある。GPT-5.2やGemini-3.0-Proは2025年後半から2026年初頭のフロンティアモデルだ。つまりV4のFlash版は、半年前までのトップクラスの閉域モデルに概ね追いついた、ということになる。

V4-Pro-Max vs 主要競合モデル ベンチマーク比較
ベンチマーク V4-Pro-Max GPT-5.4
xHigh
Gemini 3.1
Pro High
Opus 4.6
Max
Codeforces
競技プログラミング
3206 3168 3052
LiveCodeBench
コード生成
93.5 91.7 88.8
MMLU-Pro
総合知識
87.5 87.5 91.0 89.1
SimpleQA
事実回答
57.9 45.3 75.6 46.2
GPQA Diamond
科学推論
90.1 93.0 94.3 91.3
※ 青字=当該カテゴリ最高値。「—」はスコア非公開。出典: DeepSeek-V4 Technical Report

価格で見る本当のインパクト

性能差以上に業界を揺さぶるのは価格設定だ。V4-Proは100万入力トークンあたり1.74ドル、出力が3.48ドル。V4-Flashは入力0.14ドル、出力0.28ドルに抑えている(いずれもcache-miss時の標準価格)。

比較対象として、Anthropic Claude Opus 4.7の出力は100万トークン25ドル、OpenAIが23日に公開したGPT-5.5は30ドルとされる。ざっくり7〜10倍の開きがある。日本円に換算すれば、V4-Proの出力が 約555円 であるのに対し、Opus 4.7は約3988円、GPT-5.5は約4785円(1ドル約159.5円換算)となる。

AIは誰もが手軽に利用できるものであるべきだ(梁文鋒氏、36Kr Japan掲載インタビュー)

創業者である梁文鋒氏がかねて語ってきたこの姿勢は、V4でも変わらない。ただし今回は、ただの値下げではなく、ハードウェア戦略の根本的な転換が背景にある。

主要AIモデル 出力料金比較(100万トークンあたり)
DeepSeek V4-Flash オープンウェイト 0.28ドル
DeepSeek V4-Pro オープンウェイト 3.48ドル
Claude Opus 4.7 クローズド 25ドル
GPT-5.5 クローズド 30ドル
※ 出力トークン100万あたりの標準料金。棒の長さはGPT-5.5の30ドルを100%とした相対比。出典: 各社公式APIドキュメント

NVIDIAから完全離脱、Huawei Ascendへの全面移行

V4の裏で進んでいたのは、計算基盤の丸ごとの入れ替えだ。DeepSeekは今回、トレーニングにファーウェイHuawei)のAscendチップを使用したと明らかにした。これはV3まで事実上の標準だったNVIDIACUDA環境からの完全な離脱を意味する。

V4の発表が当初予定の2026年2月から複数回延期された主因は、この移行作業だった、と中国メディアの36Krが伝えている。CUDAからAscend用のCANNフレームワークへの書き換えは、単なるチップ交換ではない。演算ライブラリから通信ライブラリまで、基盤コードの大規模なリライトが必要になる。Ascend 910Cでの学習時に不安定性やノード間通信の遅延に直面したとの報道もある。

この困難を乗り越えたことには象徴的な意味がある。米国は2022年以降、中国向けの先端半導体輸出を段階的に厳格化してきた。H100やH20といったNVIDIA製の学習向けGPUは、中国企業にとって事実上手が届きにくくなっている。V4は、その制約下で生まれた 初の国産チップ製フロンティア にあたる。

資金調達200億ドル、目的は「人材の引き留め」

V4公開と時を同じくして、DeepSeekが200億ドル(約3兆1900億円)の評価でテンセントとアリババから出資を募っていることを、The InformationとFinancial Timesが相次ぎ報じている。

興味深いのは、資金が必要な理由だ。親会社である量的ヘッジファンドのHigh-Flyer(幻方量化)が後ろ盾についており、運転資金に困っているわけではない。FTによれば、目的は人材の流出防止。他のAIラボが2〜3倍の報酬を提示して研究者を引き抜きにかかっており、社員にストックオプションの市場価格を与えて引き留めたい、というのが実情らしい。

計算資源の制約と、人材市場での価格競争。両方に同時に対処しないと、次のV5は出せない。

技術的には追いついているが、人材エコシステムでは明らかに米国勢に押されている。この構造は、V4の「3〜6ヶ月遅れ」という自己評価とも連動している。


テキストのみ、マルチモーダル不在という選択

V4 ProもFlashもテキスト入出力のみに対応し、画像・音声・動画は扱えない。閉域のフロンティアモデルが軒並みマルチモーダル化しているなかで、この機能範囲は意図的に絞られている。

推測に過ぎないが、背景には計算資源と資金の制約があるとみられる。マルチモーダル学習は追加で膨大な計算量を要求するため、Ascendへの移行コストを抱えた状態では優先順位が後回しになってもおかしくない。言い換えると、V4は 絞り込みで勝負に出たモデル だ。

「オープンウェイトで最大」という到達点

パラメータ1.6兆のV4-Proは、公開時点でオープンウェイトとしては史上最大級だ。Moonshot AIKimi K2.6(1.1兆)、DeepSeek自身のV3.2(671B)を超え、Qwen系の大型モデルも上回る。

コンテキスト長は100万トークン。しかもこれは長文用の特別ティアではなく標準仕様で、追加料金もかからない。論文1本分(数十万トークン)を丸ごと投げ込める規模感を、低価格で全ユーザーに開放していることになる。

NVIDIAのジェンスン・フアンCEOは過去のインタビューで、中国のAIラボについて「世界をリードするオープンモデル企業」と語っていた。もしV4が3〜6ヶ月遅れでこの性能であるなら、その差が1ヶ月、あるいはゼロに縮まったとき、業界はどう応じるのか。その問いがV4の背後に残る。


参照元

他参照

関連記事

Read more

DDR5メモリ、日本で4ヶ月ぶり値下がりの兆し

DDR5メモリ、日本で4ヶ月ぶり値下がりの兆し

64GBキットが80,000円を割り込み、日本国内の一部小売で記録的な高値からの反落が始まっている。とはいえ昨年比では依然として数倍の水準で、AIデータセンター需要が支配する構造は何も変わっていない。 4ヶ月ぶりに5万円台前半まで戻した64GBキット 日本市場で異変が起きている。Wccftechが報じたところによれば、4月中旬の時点で複数のDDR5メモリキットが直近4ヶ月で最も低い水準まで価格を落とし、64GB(32GBx2)のDDR5-4800キットが80,000円を下回って販売されている。 ドル換算でおよそ489ドル、前月比で 約21.8% の値下がりだ。世界の大半の地域では同容量のDDR5デスクトップ向けキットが800ドル超で取引されている現状を踏まえれば、これは控えめに言っても「異例の安さ」になる。 ただし喜んでいい話なのかは別問題だ。昨年同時期と比べれば、依然として数倍の価格帯にとどまっている。10%程度の下落で「安い」と感じてしまう感覚そのものが、この一年でメモリ市場がどれほど歪んだかを物語っている。 4ヶ月ぶりという但し書きが示すのは、回復ではなく「束の間の踊