IntelのTSNC、テクスチャを最大18倍圧縮へ

テクスチャはゲームで最もVRAMを食うリソースだ。そこにIntelが、ニューラル圧縮技術「TSNC」で正面から殴り込みをかけてきた。

IntelのTSNC、テクスチャを最大18倍圧縮へ
Intel

テクスチャはゲームで最もVRAMを食うリソースだ。そこにIntelが、ニューラル圧縮技術「TSNC」で正面から殴り込みをかけてきた。


従来比最大18倍──Intelが本気で取り組む圧縮技術

IntelがTSNC(Texture Set Neural Compression)の新たな詳細を公開している。GDC 2025でIntel Labsの研究デモとして初めて披露されたこの技術は、ニューラルネットワークを使ったテクスチャ圧縮だ。単なるプロトタイプから、スタンドアロンのSDKとデコンプレッションAPIを備えたプロジェクトへと進化しつつある。

注目すべきは圧縮率の数字だ。Intelの自社テストによれば、従来のBCブロック圧縮がビットマップ比で約4.8倍の圧縮率にとどまるのに対し、TSNCのVariant Aは9倍以上、Variant Bは18倍以上の圧縮を達成している。同じテクスチャが5分の1以下に縮む。

テクスチャ圧縮率の比較(ビットマップ比)
BCブロック圧縮(従来方式)
4.8x
TSNC Variant A(品質重視)
9x+
知覚損失 約5%(FLIP評価)
TSNC Variant B(圧縮重視)
18x+
知覚損失 約6〜7%(FLIP評価)
Intelの自社テスト(Sketchfabデータセット、1k/2k/4k解像度)に基づく

ただし、この圧縮率と画質はトレードオフの関係にある。Variant Aは品質重視で知覚損失が約5%(NVIDIAのFLIPツールによる評価)、Variant Bは圧縮重視で6〜7%の損失が生じる。法線マップやARMデータではブロックアーティファクトが出始めるという報告もあり、Variant Aが現実的なバランスポイントになりそうだ。

TSNCはPBRテクスチャセット(アルベド、法線マップ、ラフネスなど最大9チャンネル)をまとめて1つのニューラルネットワークで圧縮・展開する。個別のテクスチャではなく「マテリアル全体」を対象にする点が、従来のブロック圧縮との根本的な違いだ。

ニューラル圧縮の仕組み──BC1の上に「学習層」を載せる

TSNCの技術的な核心は、既存のBC1ブロック圧縮フォーマットの上にニューラルネットワークの学習表現を重ねるアーキテクチャにある。テクスチャデータをエンコーダで圧縮し、潜在空間の値としてBC1ベースのフィーチャーピラミッドに格納。デコード時には3層のMLPがその潜在表現からオリジナルのテクスチャを再構成する。

MLP(多層パーセプトロン)は、すべてのノードが前後の層と全結合したニューラルネットワークだ。TSNCでは、このMLPがテクスチャごとに最適化された「辞書」として機能し、圧縮された潜在コードから元のピクセル値を復元する。

この設計の巧妙さは、BC1というハードウェアテクスチャフィルタリングに対応した既存フォーマットを「入れ物」として利用している点にある。GPU既存テクスチャサンプリングパイプラインがそのまま使え、桁違いの圧縮率と既存パイプラインの互換性を両立させている。

デコーダはC、C++、HLSLにコンパイル可能で、CPUGPU両方のフォールバックパスを持つ。Intel GPUのXMXユニット(行列演算エンジン)によるハードウェアアクセラレーションにも対応しており、DirectX 12のCooperative Vectors機能をフルに活用できる設計だ。


Panther Lakeで走るマイクロベンチマーク

Intelは次世代iGPUであるPanther Lake内蔵のB390グラフィックス上でTSNCのマイクロベンチマーク結果も共有している。フォールバックのFMA(Fused Multiply-Add)パスが1ピクセルあたり平均約0.661ナノ秒、リニアアルジェブラ(線形代数)パスが約0.194ナノ秒。XMXによるハードウェア支援で約3.4倍の高速化を叩き出している。

この数字が意味するのは、TSNCが統合GPUでも実用的な速度で回るということだ。Panther LakeのArc B390は12基のXe3コアとXMXエンジンを搭載している。ハイエンドdGPU向けの技術を薄型ノートの内蔵GPUで動かす──Intelはそこを本気で狙っている。

さらに、Arc B580での実測データも論文で公開されている。4Kテクスチャセット(9チャンネル)を異方性フィルタリング付きで1080pレンダリングした結果、テクスチャセットあたりわずか28MBのVRAMで処理時間は0.55ミリ秒だった。

従来のBCn圧縮では同じテクスチャセットに数百MBのVRAMが必要になる。28MBという数字は、メモリ帯域が限られた内蔵GPUでもニューラルテクスチャ圧縮が実用域に入ることを示している。

NVIDIAも別ルートで同じ山を登っている

テクスチャのニューラル圧縮はIntelの独壇場ではない。NVIDIAGTC 2026で自社のNTCNeural Texture Compression)を再びデモし、Tuscan VillaシーンでBCN圧縮時に6.5GBだったテクスチャVRAM使用量を、NTCで970MBまで削減してみせた。85%の削減だ。

両社のアプローチには設計思想の違いがある。NVIDIARTXNTC SDKはバージョン0.9に達しており、NVIDIA GPUで最も高いパフォーマンスを発揮する。Intelは逆に、DirectX 12のCooperative Vectorsという標準APIに乗る形で、GPUベンダーに依存しない設計を選んだ。どちらが正解かはまだ誰にもわからないが、ゲーム開発者が「ベンダーごとに別のテクスチャアセットを用意する」なんて馬鹿げたことをやるはずがない以上、標準API側に収束していくのは時間の問題だろう。

ゲーム開発者の視点で言えば、特定ベンダーのGPUに最適化されたアセットを個別に用意するのは非現実的だ。グラフィックスエンジニアのセバスチャン・アールトネンは「ニューラルテクスチャ圧縮は良いアイデアだが、問題はオープンソースではなく、すべてのGPUで動かないことだ」と端的に問題を突いている。MicrosoftDirectXの標準機能としてCooperative Vectorsを整備したのは、まさにこの問題への回答だ。

Intel TSNC NVIDIA NTC
圧縮方式 BC1ピラミッド
+ 3層MLP
潜在特徴量
+ MLP
SDK状態 α版(年内予定) v0.9 ベータ
標準API DX12
Cooperative Vectors
DX12 CoopVec
+ Vulkan
デモ実績 4K 9ch → 28MB
0.55ms(B580)
6.5GB → 970MB
85%削減
対応GPU Intel Arc
(A/B/内蔵)
NVIDIA / AMD
/ Intel Arc
ゲーム採用 ほぼなし
SDK状態は2026年4月時点

期待と現実のあいだにある溝

正直に言えば、この技術にはまだ大きな課題が残っている。NVIDIAがニューラルテクスチャ圧縮のコンセプトを初めて披露してから3年近くが経過したが、実際にこの技術を採用して出荷されたゲームタイトルは、Assassin's Creed Mirageを除けばほぼ存在しない。

Intelはアルファ版SDKを年内にリリースし、その後ベータ、パブリックリリースへと段階的に進める計画だとしている。NVIDIARTXNTC SDKはすでにバージョン0.9に達しており、AMD・Intel GPUでも動作する。技術の駒は揃いつつある。足りないのは、ゲーム開発者がこれを実際のタイトルに組み込むかどうかだ。

ゲームのインストールサイズは80GBを超えることが珍しくなくなり、VRAMの逼迫はRTX 5060のような8GB GPUで日常的な問題になっている。ニューラルテクスチャ圧縮は「AIスロップ」ではない。ジェネレーティブAIとは違い、開発時にオリジナルテクスチャで学習した専用ネットワークが忠実に復元する技術だ。ハルシネーションの入り込む余地がない。

それでも、ゲーム開発者がこの技術を採用するまでには時間がかかる。ドライバレベルで勝手に適用できるものではなく、ゲームエンジンへの統合が必要だからだ。そしてその頃には、あなたのGPUはもう次世代のものに変わっているかもしれない。

技術は揃った。足りないのは、それを使う側の決断だけだ。


参照元

関連記事

Read more

NYTよりCatturdが伸びる、Xという「フリークショー」の構造

NYTよりCatturdが伸びる、Xという「フリークショー」の構造

フォロワー5300万のニューヨーク・タイムズが、速報を流しても「いいね」は数百止まり。一方で「Catturd」のような匿名アカウントが、その何倍もの反応を得ている。Xで何が起きているのか。 ネイト・シルバーが突きつけた一枚のグラフ 統計家のネイト・シルバーが、自身のニュースレター「Silver Bulletin」で公開した記事が、英語圏で静かに広がっている。タイトルは「Social media has become a freak show」。直訳すれば「ソーシャルメディアは見世物小屋になった」だ。 中心にあるのは一枚のバブルチャートだった。2026年1月1日から4月4日までの期間に、Xで最もエンゲージメントを集めたアカウントを並べたものだ。データは分析プラットフォームのCluvioが集計し、視覚化はClaudeを使って彼自身が作り直している。 https://www.natesilver.net/p/social-media-has-become-a-freak-show そこに浮かび上がるのは、見たことのある名前と、ほとんど見たことのない名前が入り混じった奇妙な勢力図だ

Claude Code劣化問題、AMDのAI責任者が膨大なログで告発

Claude Code劣化問題、AMDのAI責任者が膨大なログで告発

「2月以降、Claude Codeは複雑なエンジニアリング業務を任せられる代物ではなくなった」――AMDのAIグループ責任者がそう断じた。感情論ではない。6,852セッション、23万件超のツール呼び出しを解析した数字が、その劣化を裏付けている。 「Claudeはもう信用できない」と告発したのは誰か GitHubのclaude-codeリポジトリに、4月2日付(米国時間)で投稿された一本のIssue(#42796)が波紋を広げている。投稿者はステラ・ローレンゾ。半導体大手AMDでAIグループのシニアディレクターを務める人物であり、社内でClaude Codeを大規模に運用してきた当事者だ。 タイトルは率直そのものだ。「2月のアップデート以降、複雑なエンジニアリング業務にClaude Codeは使えない」。 https://github.com/anthropics/claude-code/issues/42796 ここで重要なのは、その主張の裏付けが「最近どうも調子が悪い」式の印象論ではなかったことだ。ローレンゾのチームは、自分たちが業務で蓄積してきた6,852セッション分の