記者張靖榕/綜合報導
輝達執行長黃仁勳在CES 2026上正式發表公司最新一代運算架構「Rubin」,並形容這是目前最先進的AI硬體平台。黃仁勳表示,Rubin架構已進入量產階段,預計今年下半年將進一步放量,以因應AI運算需求爆炸性成長。

▲黃仁勳登台CES 2026。(圖/翻攝X,下同)
黃仁勳在主題演講中指出,AI發展面臨的根本挑戰,在於所需的運算量正急遽攀升。他表示,「Vera Rubin正是為了解決這個問題而設計的。今天我可以告訴各位,Vera Rubin已經全面投產。」這項架構早在2024年就已對外公布,如今正式落地,被視為輝達持續高速推進硬體世代交替的最新成果。

Rubin架構將全面取代現行的Blackwell架構,而Blackwell此前則接替了Hopper與Lovelace。這種近乎「年年換代」的產品節奏,也被市場視為輝達能在AI浪潮中持續維持領先地位、並成為全球市值最高科技公司的關鍵因素之一。
根據輝達說法,Rubin晶片已被幾乎所有主要雲端服務供應商採用,包括與Anthropic、OpenAI以及亞馬遜網路服務(AWS)等高調合作夥伴的部署計畫。此外,Rubin系統也將用於HPE打造的Blue Lion超級電腦,以及美國勞倫斯柏克萊國家實驗室即將啟用的Doudna超級電腦。
Rubin這個名稱,取自美國天文學家薇拉.魯賓(Vera Florence Cooper Rubin)。整體架構由6顆可協同運作的晶片所組成,其中Rubin GPU位居核心,同時也針對AI系統日益嚴峻的瓶頸進行全面強化,包括透過BlueField改善資料處理與控制能力,以及藉由新一代NVLink提升晶片間互連效能。架構中亦納入全新的Vera CPU,專為「代理式推理」(agentic reasoning)等進階AI應用而設計。

輝達AI基礎設施解決方案資深總監Dion Harris說明,新架構在儲存系統上的革新,主要是回應現代AI模型對記憶體與快取的高度需求。他指出,當AI開始執行長時間任務或具備代理能力時,對KV快取(Key-Value Cache)的壓力將大幅上升,因此輝達新增一個可外接運算裝置的儲存層級,使整體儲存資源能更有效率地擴充。
效能方面,Rubin架構也被定位為一次顯著飛躍。依輝達內部測試結果,Rubin在模型訓練上的速度可達Blackwell的3.5倍,在推論任務上更可提升至5倍,最高運算效能達50 petaflops。同時,新平台在能源效率上也有明顯改善,每瓦推論運算能力提升至原本的8倍。
在全球AI基礎設施競賽白熱化之際,Rubin的推出正值關鍵時點。無論是AI實驗室還是雲端服務商,都在爭相取得輝達晶片,同時加速建置足以支撐龐大算力的資料中心。黃仁勳去年10月於財報會議中曾估算,未來5年全球在AI基礎設施上的總投資金額,可能高達3兆至4兆美元,顯示這場算力競賽的規模與戰略意義,正持續擴大。
