Google TurboQuantでDRAM株が急落——「DeepSeekの再来」なのか

Googleの新圧縮技術がメモリ市場を揺さぶっている。SK Hynixは1日で6%超、マイクロンは5日間で20%近く下落した。去年のDeepSeekショックの再来なのか、それとも市場の過剰反応なのか。

Google TurboQuantでDRAM株が急落——「DeepSeekの再来」なのか

Googleの新圧縮技術がメモリ市場を揺さぶっている。SK Hynixは1日で6%超、マイクロンは5日間で20%近く下落した。去年のDeepSeekショックの再来なのか、それとも市場の過剰反応なのか。


SK Hynix急落6%——TurboQuantが引き金を引いた

3月26日(木)、韓国株式市場に衝撃が走った。TurboQuantの名が世界中のトレーダーの画面に点滅し、その余波は今もメモリ株市場に広がり続けている。

電気・電子セクターが4.76%下落し、韓国の代表的な指数KOSPIは3%超の下落を記録した。中心にいたのは世界最大級のメモリチップメーカー2社だ。SK Hynixが6.23%急落、サムスン電子も4.71%下落し、ともに4日連続の下値圏となった。日本のキオクシアも6%近く下落した。

前日の米国市場では、マイクロン(NASDAQ: MU)が3.40%安、5日間の累計下落率は19.5%に達していた。SanDiskも3.50%安。広範なメモリセクターが一斉に売られた。

引き金となったのが、Googleが3月24日に発表した圧縮アルゴリズムTurboQuant」だ。「LLMメモリ消費を最低6倍削減、推論速度を最大8倍向上」という主張が、投資家の不安を一気に呼び起こした。

TurboQuantが狙うのは「何のメモリ」なのか

ここで冷静に、技術の中身を整理したい。

TurboQuantが圧縮するのはAIモデル全体のメモリではない。「KVキャッシュ(Key-Value Cache)」と呼ばれる特定の領域——LLMが過去のトークン計算を記憶するための一時メモリだ。

会話が長くなるほどKVキャッシュは肥大化し、メモリボトルネックの主因となっている。Googleはこれを圧縮することで、精度を損なわずにメモリ消費を大幅に削減できると主張する。

KVキャッシュとは、AIが同じ計算を繰り返さないための「デジタルなメモ帳」だ。コンテキスト長が増えるほど膨らみ、メモリボトルネックの主因となっている。

これを精度ゼロロスで3ビットまで圧縮できるというのがTurboQuantの主張だ。技術的には2段階で動作する。まず「PolarQuant」がデータを極座標に変換して冗長性を削減し、次に「QJL(Quantized Johnson-Lindenstrauss)」が1ビットの数学的誤差補正で精度を保つ。再学習やファインチューニングは一切不要で、既存のモデルにそのまま適用できる点が特徴だ。

「6倍圧縮」の裏にある但し書き

数字が一人歩きしている感がある。

「6倍圧縮」は、32ビット(FP32)精度と比較した場合の理論的な最大値だ。実際のAI推論の70〜80%はすでに8ビット精度で動いており、実態に即せば実際の圧縮効果は最大で約2.6倍程度にとどまるという分析が韓国の証券アナリストから出ている。

さらに、TurboQuantが対象とするのはKVキャッシュのみであり、モデルのパラメータ(重み)自体には干渉しない。AI学習で使われる高帯域幅メモリHBM)への直接的な影響も、限定的とみられる。

「Googleの主張する数値はFP32との比較に基づく理論的な最大値だ。実際の推論の大部分はすでに8ビット精度を使用しており、実効的な圧縮効果は最大2.6倍程度にとどまる」——ソウル経済新聞、証券アナリスト分析より

「6倍」という数字は確かに刺激的だが、前提を知れば印象はかなり変わる。


CloudflareのCEOが「GoogleのDeepSeek」と呼んだ理由

テック業界の中でも特に注目を集めたのが、CloudflareのマシュープリンスCEO(@eastdakota)だ。

「これはGoogleDeepSeekだ。AI推論のスピード、メモリ消費、電力効率、マルチテナント利用の最適化にはまだはるかに大きな余地がある」

DeepSeekとの比較は、構造としてよく似ている。昨年1月、中国AI企業DeepSeekの効率的なモデルが公開された際、「AIに必要なハードウェアは思っていたより少ない」という恐怖がNVIDIA株を1日で17%急落させた。TurboQuantも同じ問いを市場に突き刺した——「本当にあれほどのメモリが必要なのか?」と。

ただし、今回の売りは純粋な恐怖だけではない。アナリストの間では、記録的な高騰を続けてきたメモリ株にとって、TurboQuantが「利食いの口実」を与えたに過ぎないという見方が広がっている。

効率化が需要を生む——アナリストたちの反論

だが、ベテランアナリストたちはより長い視野でこの問題を見ている。

SemiAnalysisのメモリアナリスト、レイ・ワン氏はCNBCに「KVキャッシュはボトルネックの一つだ。ここを改善すれば、モデルがより高性能になる。そしてモデルが高性能になれば、それを支えるためにより良いハードウェアが必要になる」と語った。

「TurboQuantのイノベーションはプレッシャーに加わったが、これは進化的であり革命的ではない。業界の長期的な需要見通しを変えるものではない」——Quilter Cheviotのテクノロジー調査責任者、ベン・バリンジャー氏

これは経済学でいう「ジェヴォンズのパラドックス」そのものだ。技術効率が上がれば利用コストが下がり、より広い用途でAIが使われ、長期的にはメモリ需要が拡大するという逆説的な現象だ。モルガン・スタンレーも、AI運用コストの低下は市場拡大の触媒になりうると分析している。

それでも「買い向かった」上位トレーダーたち

市場が崩れる中で、逆張りの動きもあった。

ミレ・アセット証券によると、直近1ヶ月のリターンで上位1%に入る「株式スーパー投資家」たちは、急落の最中にSK Hynixを最も積極的に買い向かっていた。KB証券も同日、目標株価170万ウォン・レーティング「買い」を維持している。

背景を振り返れば、サムスン株は過去1年で約200%上昇し、マイクロンとSK Hynixに至っては300%超の上昇を遂げていた。そこへTurboQuantが「利食い」の引き金を引いた、という構造が見えてくる。

4月にブラジルで開催されるICLR 2026で詳細論文が発表されれば、この技術への評価は再び揺れるかもしれない。市場を震わせたのは「6倍」という数字の大きさだったが、その前提を精査すれば、まだ結論を出すには早い段階にある。


参照元

他参照

関連記事