記者張靖榕/綜合報導
輝達正式推出名為「Alpamayo」的全新開源AI模型家族,涵蓋模型、模擬工具與資料集,目標是協助實體機器人與自動駕駛車輛,在複雜且罕見的真實世界情境中進行推理與決策。黃仁勳在CES 2026上展示,賓士CLA車款搭載輝達自駕系統的影片,駕駛座乘客全程沒有動到方向盤,由車輛自駕完成,透過環景辨識人車、各項雜物與動作,並且完美完成自駕全程。

▲黃仁勳展示賓士搭載輝達自駕系統。(圖/翻攝輝達YouTube直播,下同)

黃仁勳表示,「實體AI的ChatGPT時刻已經到來,當機器開始在真實世界中理解、推理並採取行動。」他指出,Alpamayo為自動駕駛帶來推理能力,使車輛能在複雜環境中安全行駛,並能解釋自身的駕駛決策過程。
黃仁勳表示,輝達與賓士合作,預計今年Q1在北美市場上線,Q2在歐洲市場上線,Q3、Q4將在亞洲市場上線。

Alpamayo家族的核心為Alpamayo 1,這是一款擁有100億參數的「思考鏈」(chain-of-thought)視覺語言行動(VLA)模型,能讓自動駕駛車輛更接近人類的思考方式,處理過去未曾遇過的極端邊緣案例,例如在繁忙路口遇到交通號誌全面失效時,如何安全通行。該模型透過將問題拆解為多個步驟,推演各種可能性,最終選擇風險最低的行動路徑。

▲黃仁勳。(圖/翻攝X)
此外,開發者還可搭配輝達的生成式世界模型「Cosmos」,產生合成資料,並結合真實與合成數據來訓練與測試以Alpamayo為基礎的自動駕駛應用。Cosmos的設計目的,是建立可預測並模擬物理環境的AI系統,協助車輛在虛擬世界中反覆驗證決策安全性。
配合Alpamayo推出,輝達同時釋出一套全新的開源資料集,包含超過1700小時、涵蓋多種地理環境與天候條件的實際駕駛數據,聚焦於罕見且高度複雜的真實場景。公司也同步發布名為AlpaSim的開源模擬框架,已上架GitHub,可從感測器、交通流量到道路條件,完整重建真實駕駛環境,讓開發者能在不危及安全的情況下,大規模驗證自動駕駛系統的可靠性。
