NVIDIAが明かした設計自動化の実像、80人月が一晩に
8人がかりで10カ月かけていた作業が、GPU1枚の一晩で終わる。NVIDIAのチーフサイエンティストがGTC 2026の対談でそう語った。ただし、この数字には、見逃せない留保がついている。
8人がかりで10カ月かけていた作業が、GPU1枚の一晩で終わる。NVIDIAのチーフサイエンティストがGTC 2026の対談でそう語った。ただし、この数字には、見逃せない留保がついている。
「80人月が一晩」の正体
NVIDIAのチーフサイエンティスト、ビル・ダリー氏がGTC 2026の対談でGoogleのジェフ・ディーン氏と向き合い、社内のチップ設計フローにAIをどう組み込んでいるかを具体的に語った。話題の中心は、ダリー氏が紹介したNVCellという社内ツールだ。
半導体プロセスが新世代に切り替わるたび、NVIDIAは約2500から3000個の標準セルライブラリを新プロセス向けに移植しなければならない。AND、OR、加算器といった回路の最小部品群である。この作業は従来、8人のチームで10カ月、累計で80人月を要していた。
NVCellは強化学習でセル内のトランジスタ配置を探索し、その後に出るデザインルール違反を修正していくエージェントだ。ダリー氏によれば、現行版はNVCell 2か3まで進んでおり、この膨大な作業をGPU1枚、一晩で片付ける。しかも、成果物はセルサイズ・消費電力・遅延のいずれの指標でも、人間の手仕事と肩を並べるか、それを超えるという。
ただ、これを単なる工数削減の話として読むと、肝心なところを見落とす。ダリー氏自身はこの成果を「新プロセスへの移行障壁を取り除くもの」と位置づけている。移植に10カ月かかる前提では、新プロセスに踏み出す決断そのものが重くなる。その重しが外れれば、プロセス更新のテンポが変わる。80人月という数字そのものより、ここが効いてくる。
NVCellは2021年にNVIDIA Researchが論文公開したツールで、今回の対談はその実運用フェーズの成果報告にあたる。
人間が思いつかない加算器を、AtariのようにAIが見つける
もう一つ、ダリー氏が挙げたのがPrefix RLと呼ばれる社内ツールだ。これは桁上げ先見加算器におけるルックアヘッド段の配置という、1950年代から研究されてきた古典問題を扱う。
ここで興味深いのは、目的関数の設定だ。目指すのは最速の加算器ではない。タイミング要件をかろうじて満たしつつ、可能な限り小型で低消費電力な加算器である。Prefix RLはこの制約の下で、Atariのビデオゲームを攻略するように試行錯誤する。ダリー氏の言葉を借りればこうなる。
人間が絶対に思いつかないような、まったく奇妙な設計を出してくる。それが実際、面積・消費電力・タイミングといった指標で人間設計より20〜30%優れている。
この発言のポイントは工数の節約ではない。人間の直感の外側にある設計空間を、AIが探索している点だ。チップ設計AIは効率化の文脈で語られがちだが、Prefix RLの意義はむしろ「そもそも人間の発想では届かない地点」へ手を伸ばせることにある。時間短縮は副産物にすぎない。
若手の隣に座る、辛抱強いメンター
3つ目は、より広い範囲をカバーする社内LLMだ。NVIDIAは数年前からChip NemoとBug Nemoと呼ばれる一連のモデルを運用している。汎用LLMをベースに、NVIDIAの内部ドキュメント、歴代GPUのRTL設計、アーキテクチャ仕様といった門外不出のデータで微調整したものだ。
ダリー氏がこのツールの価値として真っ先に挙げたのは、意外にも若手エンジニアの教育だった。
シニア設計者は、若手に基礎を説明することに膨大な時間を費やしている。「このテクスチャユニットはどう動くのか」といった質問だ。今はそれをChip Nemoに聞ける。非常に辛抱強いメンターだ。
バグ処理にも使われている。バグレポートの要約、原因モジュールの推定、担当設計者の割り当て提案。プロジェクト管理に近い領域までLLMが染み出している。設計の中核ではない。だが、設計者の1日を実際に占めるのはこういう雑務だ。そこが肩代わりされる効果は、派手な自動化ニュースより地味だが、実務には効く。
ここが、一番大事な留保
ここまで読むと「NVIDIAはもうチップ設計の大半をAIに任せている」と錯覚しそうになる。だがダリー氏自身は、同じ対談の中で釘を刺している。彼が語った言葉をそのまま置こう。
エンドツーエンドの自動設計、たとえば「新しいGPUを設計してくれ」と言ってスキーに出かけ、戻ってきたら完成している――そういう段階にはまだ遠い。ただし、生産性は確実に大きく上がっている。
つまり現状は、設計フローの各工程にAIが部分的に投入されている段階だ。セル移植、加算器最適化、若手支援、バグ処理、検証の一部。どれも成果は明確だが、工程と工程をつなぎ、チップ全体を一気通貫で設計する仕組みはまだない。ダリー氏が長いボトルネックとして特に挙げたのが設計検証で、ここをどう加速するかが次の焦点だという。
この留保は、見出しの数字だけ切り取る記事では脇に追いやられがちだ。「80人月が一晩に」という数字のキャッチーさに比べれば、「でも全体は遠い」は地味すぎる。けれど、AIによるチップ設計の現在地を正しく把握したければ、この地味な一文こそが核心だと思う。
Googleも同じ壁に挑んでいる
対談相手がディーン氏だったことにも触れておきたい。Googleも同じ領域でAlphaChipと呼ばれる強化学習ツールを開発し、2021年にNature誌で発表している。対象はフロアプラン(マクロ配置)で、TPU v5e、v5p、Trilliumといった複数世代のTPU設計に実際に使われてきた。ディーン氏は対談の中で「配置配線を助ける例の一つ」としてAlphaChipに短く言及している。
ただし、AlphaChipの性能主張には学術的な論争がついて回る点も書いておく。UCSDの独立チームが再現実験で論文の優位性を確認できなかったと報告し、これに対してGoogle側も反論を公表している。外から見る限り、決着はついていない。
いずれにせよ、NVIDIAとGoogleがチップ設計AIという同じ問題の前に立っているのは確かだ。アプローチは少しずつ違うが、どちらも「個別工程を強化学習で攻略する」という筋は共有している。全工程を一気通貫でつなぐ段階は、両社ともまだ先の話だ。
80人月が一晩になった。これは素直にすごい。ただし、ダリー氏が同じ口で「まだ遠い」と言ったことも同じだけ事実だ。見出しになる数字と、その裏に残る留保。どちらも同じ対談から出てきた話だ。半年後、あるいは数年後、この距離はどれだけ縮んでいるだろうか。
参照元
関連記事
- NVIDIAが大手PC企業を買収交渉中 Dell・HP株急騰
- Anthropic、Google・Broadcomと数GW級TPU契約 売上は3倍超
- H200対中輸出の壁は中国ではなく米BISの内側にあった
- 味の素がAIチップの首を握る ABFフィルム供給が危険水域へ
- 3万ドルのAI用GPUが約40万円のRTX 5090に惨敗する理由
- DDR4スポット価格が1年ぶり下落、2200%高騰は転換点か
- Amazon独自チップ年間200億ドル、ジャシーが示した31兆円投資の根拠
- DLSS 4.5 動的フレーム生成がベータを卒業、安定版NVIDIA Appで全員解禁
- AnthropicのClaude Mythosが「すべての主要OS・ブラウザ」で数千のゼロデイ脆弱性を発見、危険すぎて一般公開せず
- IntelがGoogle・Amazonと先進パッケージングで交渉——数十億ドル契約へ