NVIDIAが明かした設計自動化の実像、80人月が一晩に

8人がかりで10カ月かけていた作業が、GPU1枚の一晩で終わる。NVIDIAのチーフサイエンティストがGTC 2026の対談でそう語った。ただし、この数字には、見逃せない留保がついている。

NVIDIAが明かした設計自動化の実像、80人月が一晩に
NVIDIA

8人がかりで10カ月かけていた作業が、GPU1枚の一晩で終わる。NVIDIAのチーフサイエンティストがGTC 2026の対談でそう語った。ただし、この数字には、見逃せない留保がついている。


「80人月が一晩」の正体

NVIDIAのチーフサイエンティスト、ビル・ダリー氏がGTC 2026の対談でGoogleのジェフ・ディーン氏と向き合い、社内のチップ設計フローにAIをどう組み込んでいるかを具体的に語った。話題の中心は、ダリー氏が紹介したNVCellという社内ツールだ。

半導体プロセスが新世代に切り替わるたび、NVIDIAは約2500から3000個の標準セルライブラリを新プロセス向けに移植しなければならない。AND、OR、加算器といった回路の最小部品群である。この作業は従来、8人のチームで10カ月、累計で80人月を要していた。

NVCellは強化学習でセル内のトランジスタ配置を探索し、その後に出るデザインルール違反を修正していくエージェントだ。ダリー氏によれば、現行版はNVCell 2か3まで進んでおり、この膨大な作業をGPU1枚、一晩で片付ける。しかも、成果物はセルサイズ・消費電力・遅延のいずれの指標でも、人間の手仕事と肩を並べるか、それを超えるという。

ただ、これを単なる工数削減の話として読むと、肝心なところを見落とす。ダリー氏自身はこの成果を「新プロセスへの移行障壁を取り除くもの」と位置づけている。移植に10カ月かかる前提では、新プロセスに踏み出す決断そのものが重くなる。その重しが外れれば、プロセス更新のテンポが変わる。80人月という数字そのものより、ここが効いてくる。

NVCellは2021年にNVIDIA Researchが論文公開したツールで、今回の対談はその実運用フェーズの成果報告にあたる。

人間が思いつかない加算器を、AtariのようにAIが見つける

もう一つ、ダリー氏が挙げたのがPrefix RLと呼ばれる社内ツールだ。これは桁上げ先見加算器におけるルックアヘッド段の配置という、1950年代から研究されてきた古典問題を扱う。

ここで興味深いのは、目的関数の設定だ。目指すのは最速の加算器ではない。タイミング要件をかろうじて満たしつつ、可能な限り小型で低消費電力な加算器である。Prefix RLはこの制約の下で、Atariのビデオゲームを攻略するように試行錯誤する。ダリー氏の言葉を借りればこうなる。

人間が絶対に思いつかないような、まったく奇妙な設計を出してくる。それが実際、面積・消費電力・タイミングといった指標で人間設計より20〜30%優れている。

この発言のポイントは工数の節約ではない。人間の直感の外側にある設計空間を、AIが探索している点だ。チップ設計AIは効率化の文脈で語られがちだが、Prefix RLの意義はむしろ「そもそも人間の発想では届かない地点」へ手を伸ばせることにある。時間短縮は副産物にすぎない。

若手の隣に座る、辛抱強いメンター

3つ目は、より広い範囲をカバーする社内LLMだ。NVIDIAは数年前からChip NemoとBug Nemoと呼ばれる一連のモデルを運用している。汎用LLMをベースに、NVIDIAの内部ドキュメント、歴代GPUのRTL設計、アーキテクチャ仕様といった門外不出のデータで微調整したものだ。

ダリー氏がこのツールの価値として真っ先に挙げたのは、意外にも若手エンジニアの教育だった。

シニア設計者は、若手に基礎を説明することに膨大な時間を費やしている。「このテクスチャユニットはどう動くのか」といった質問だ。今はそれをChip Nemoに聞ける。非常に辛抱強いメンターだ。

バグ処理にも使われている。バグレポートの要約、原因モジュールの推定、担当設計者の割り当て提案。プロジェクト管理に近い領域までLLMが染み出している。設計の中核ではない。だが、設計者の1日を実際に占めるのはこういう雑務だ。そこが肩代わりされる効果は、派手な自動化ニュースより地味だが、実務には効く。

ここが、一番大事な留保

ここまで読むと「NVIDIAはもうチップ設計の大半をAIに任せている」と錯覚しそうになる。だがダリー氏自身は、同じ対談の中で釘を刺している。彼が語った言葉をそのまま置こう。

エンドツーエンドの自動設計、たとえば「新しいGPUを設計してくれ」と言ってスキーに出かけ、戻ってきたら完成している――そういう段階にはまだ遠い。ただし、生産性は確実に大きく上がっている。

つまり現状は、設計フローの各工程にAIが部分的に投入されている段階だ。セル移植、加算器最適化、若手支援、バグ処理、検証の一部。どれも成果は明確だが、工程と工程をつなぎ、チップ全体を一気通貫で設計する仕組みはまだない。ダリー氏が長いボトルネックとして特に挙げたのが設計検証で、ここをどう加速するかが次の焦点だという。

この留保は、見出しの数字だけ切り取る記事では脇に追いやられがちだ。「80人月が一晩に」という数字のキャッチーさに比べれば、「でも全体は遠い」は地味すぎる。けれど、AIによるチップ設計の現在地を正しく把握したければ、この地味な一文こそが核心だと思う。

Googleも同じ壁に挑んでいる

対談相手がディーン氏だったことにも触れておきたい。Googleも同じ領域でAlphaChipと呼ばれる強化学習ツールを開発し、2021年にNature誌で発表している。対象はフロアプラン(マクロ配置)で、TPU v5e、v5p、Trilliumといった複数世代のTPU設計に実際に使われてきた。ディーン氏は対談の中で「配置配線を助ける例の一つ」としてAlphaChipに短く言及している。

ただし、AlphaChipの性能主張には学術的な論争がついて回る点も書いておく。UCSDの独立チームが再現実験で論文の優位性を確認できなかったと報告し、これに対してGoogle側も反論を公表している。外から見る限り、決着はついていない。

いずれにせよ、NVIDIAGoogleがチップ設計AIという同じ問題の前に立っているのは確かだ。アプローチは少しずつ違うが、どちらも「個別工程を強化学習で攻略する」という筋は共有している。全工程を一気通貫でつなぐ段階は、両社ともまだ先の話だ。


80人月が一晩になった。これは素直にすごい。ただし、ダリー氏が同じ口で「まだ遠い」と言ったことも同じだけ事実だ。見出しになる数字と、その裏に残る留保。どちらも同じ対談から出てきた話だ。半年後、あるいは数年後、この距離はどれだけ縮んでいるだろうか。


参照元

関連記事

Read more

RTX 5060 Ti/5060に9GB版の噂、帯域幅は25%削減へ

RTX 5060 Ti/5060に9GB版の噂、帯域幅は25%削減へ

NVIDIAがGeForce RTX 5060 TiとRTX 5060に「9GB GDDR7」の新バリアントを準備していると報じられている。容量は1GB増える。代わりに、メモリ帯域幅は25%削られる。 中途半端な「9GB」という数字の正体 発端は中国のBoard Channelsというフォーラムに投稿された内部情報だ。VideoCardzとWccftechがそれぞれ日本時間の4月14日に報じた。発売時期は5月下旬から6月上旬と見られている。 9GBという端数の容量には、ちゃんと理由がある。GDDR7の3GBチップを3枚搭載する構成だ。これまで主流だった2GBチップを4枚積む「4チップ128-bit」から、3GBチップ3枚の「3チップ96-bit」へと設計が変わる。掛け算の結果、容量は8GBから9GBへとわずかに増える。 3GB×3=9GB。この単純な掛け算が、RTX 50シリーズのメモリ構成を静かに書き換えようとしている。 RTX 5060 Ti / RTX 5060 : 現行版と噂の9GB版 RTX 5060 Ti RTX 5060