
Hugging Face
在消費電子大展(CES)2026上,Nvidia開源了自駕車AI模型Alpamayo系列,目標是讓自駕車能像人類一般思考行駛在複雜環境中,並公布第一款宣稱首個會思考的視覺語言行為(Vision-Language-Action, VLA)模型,未來還會增加其他模型。
Alpamayo系列為具備思維鏈的推理VLA模型,可為自駕車決策過程加入類似人類的思考能力。它可在新式或罕見情境下一步步思考,藉此提升在複雜環境中安全駕駛的能力並且解釋其決策,而這也是全棧式安全系統Nvidia Halos的基礎。
Nvidia執行長黃仁勳稱,機器開始理解、思考真實世界並採取行動,是「實體AI的ChatGPT時刻」。
今天Nvidia釋出的Alpamayo專案包含開放模型、模擬框架和資料集。首先是業界第一個自駕車專用的思維鏈推理VLA模型Alpamayo 1,參數量100億,現在已在Hugging Face上開放給研究人員或自駕車開發商。它可用影片輸入產生軌跡和推理線索,可顯示每個決策背後的邏輯。開發人員可將Alpamayo 1客製成汽車開發用的較小runtime模型,或作為推理式評估或自動標註系統等開發工具的基礎。Nvidia還提供開放權重及開源推論script。
未來Alpamayo家族還會新增參數量更大、更細膩的推理能力、也會擴大輸出和輸入內容的彈性。目前Alpamayo 1是以非商業授權開源,但Nvidia表示未來會增加商用授權選項。
除了Alpamayo 1外,Nvidia還提供AlpaSim模擬框架(在GitHub)及實體AI開放資料集(在Hugging Face)。AlpaSim提供完整模型環境,包括逼真的感測器模擬、可配置的流量、可擴充的閉環式測試環境,幫助快速驗證和政策微調。這組資料集包含蒐集自各種地區或天候環境下的1700多小時的駕駛資料,涵括罕見或困難的真實極端情境,有助於進階推理架構模型訓練。
Nvidia並宣布已有數家自駕車系統開發商,包括Lucid、JLR、Uber及Berkeley DeepDrive等,希望使用Alpamayo開發出自駕能力達Level 4的系統堆疊。
熱門新聞
2026-01-06
2026-01-06
2026-01-06
2026-01-05
2026-01-02
2026-01-02