
CES 2026(美國消費性電子展)於 1/6 - 1/9 在美國內華達州拉斯維加斯(Las Vegas)正式登場,全球科技巨頭齊聚一堂,搶先釋出今年最關鍵的產品。作為 CES 展場中最受市場關注的焦點之一,NVIDIA 執行長黃仁勳在主題演講中也揭示了 NVIDIA 2026 年在 AI 領域的最新布局。今天我們整理了本次演講的幾大核心重點與關鍵看點,帶你快速掌握 NVIDIA 接下來的發展主軸,並分析其可能如何牽動 2026 年 AI 相關投資機會的布局方向。
重點一:AI 成為新一代基礎平台
電子與運算產業約每 10 至 15 年便會出現一次關鍵性的平台重置,而本輪循環更同時發生兩項深層平台轉移:
- AI 已由單一應用技術躍升為新一代通用型基礎平台,未來各類應用與服務的核心邏輯將直接建立於 AI 之上。
- 軟體開發方法論正由以程式設計為核心的模式,轉向以模型訓練為核心的架構,應用不再是預先編譯的靜態程式,而是能理解上下文並即時生成內容的動態系統,進一步推動運算重心由 CPU 明確轉向 GPU。GPU 的角色亦隨之轉變,從輔助加速器升級為新一代運算架構中的核心執行單元,使既有運算堆疊幾乎各層皆需重新設計。
自 2022 年 ChatGPT 引爆大語言模型(LLM)應用浪潮以來,AI 硬體設備需求受到 scaling law 所揭示的「算力、資料與模型規模擴張可持續換取能力提升」而驅動提升。另一方面,隨著推理能力提升與 Agentic AI 走向多步任務與工具調用,推論端需求正呈現加速成長,帶動 AI 硬體需求進入下一階段。即便單位 token 成本持續下降,成本降低反而加速應用滲透並提升使用強度,使總算力消耗不減反增,最終讓 AI 所帶動的算力需求逐步轉為由長期資本支出支撐的結構性成長,而非短暫的產品循環。
Vera Rubin 進入量產階段
黃仁勳在演講中表示,單靠製程微縮已經很難達到上述的需求,極限的運算堆疊與跨元件間的 co-design 應該才是下一代的競爭關鍵。因此 Nvidia 預計將 Vera Rubin 定位成完整的 AI 超級運算平台,由 Vera CPU 及 Rubin GPU 作為核心組成超級晶片(Superchip),並使用 NVLink 72 與新一代 Spectrum-X AI 乙太網路作為資料傳輸技術解決方案。Vera Rubin 採用台積電最新緊湊型通用光子引擎(Compact Universal Photonic Engine, COUPE)技術將光模組整合至晶片封裝上,加速整體交換效率。另外也採用 CoWoS-L(Local Silicon Interconnect)先進封裝技術,加大整體封裝面積。大量採用前緣技術加上跨元件共同設計,輝達試圖打造出新一代可擴展的 rack-scale AI 超級運算解決方案。產品預計於 2026 年下半年(2H 2026)由雲端服務商與企業客戶開始導入部署。
重點二:開源模型加速滲透,帶動產業長期增速

DeepSeek R1 的出現,凸顯開源模型正加速普及並快速滲透至各產業與不同國家。儘管相較最前沿的閉源模型仍約落後六個月,但其效能幾乎以「每六個月一代」的節奏持續逼近,顯示 AI 能力的擴散已不再由少數大型雲端服務商所壟斷。在此產業趨勢下,開源生態的活絡反而有利於整體運算平台與 GPU 供應鏈發展,因為 AI 需求將趨於普及化、碎片化,並向更多元應用場景延伸。隨著開源模型、資料與工具鏈逐步完備,企業與組織得以自行建立與運作模型體系,加快訓練、部署與迭代速度,並顯著降低導入門檻,進而推動硬體採用與軟硬體整合深化。整體而言,開源並非削弱產業既有的競爭結構,而是透過「模型+資料+工具鏈」的開放化把生態系做大,成為長期產業成長動能。
重點三:Agentic AI 工具走向自主系統,需求再升級

Agentic AI 使 AI 從「工具型應用」邁向「自主系統」,其核心不再僅止於內容生成,而是具備自主規劃、自主執行與自主學習的能力。Agentic AI 透過將任務拆解,結合搜尋與查證、工具呼叫、規劃與執行等多步流程,降低模型幻覺風險。這一演進方向也意味著產業重心將由追求全知型通用模型,轉向以特定任務為導向的客製化模型體系。對應至系統架構層面,AI 應用走向多模態、多模型、多雲與混合雲並存的形態,在不同情境下選用最適模型,並於雲端與邊緣之間動態調度。
Agentic AI 亦被視為企業軟體的新互動介面,使 SaaS 從表格與命令列轉向以對話為核心的操作模式,並透過意圖導向的模型選擇,在隱私敏感場景採用本地模型、在泛用任務中串接前沿模型,整合機器人、語音與視覺等應用。隨著 agentic AI 多步推理帶來龐大的 context 與負載,推論對記憶體與系統設計的要求顯著提升,促使上下文由 GPU 延伸至儲存與網路層進行管理。整體而言,agentic AI 的興起標誌著推論基礎設施與訓練基礎設施的結構性分化,並將 AI 應用推向以自主決策與長時間運作為核心的新一代系統形態。
重點四:Physical AI 走進物理真實世界的下一步
Physical AI 的核心包含三種不同功能的電腦,分別是訓練 (training) 電腦、推論 (inference) 電腦,以及用來生成與驗證資料的模擬電腦 (simulation computer)。未來的 AI 能真正理解物理世界的結構與規律,包含物體恆存性、因果關係、摩擦、重力、慣性,以及行為與結果之間的連動關係。物理世界的最大困難在於資料稀缺與情境分析,真實世界不可能蒐集到涵蓋所有互動的資料,因此必須引入模擬電腦。透過 Omniverse 的數位雙生與 Cosmos 的世界基礎模型,NVIDIA 將「算力轉換成資料」,用符合物理定律的合成資料來補齊現實世界無法涵蓋的場景,讓 AI 能在虛擬世界中反覆學習、測試與推理。
重點五:Alpamayo 可解釋端到端自駕
自駕車將成為 Physical AI 市場的第一個主流應用,舉 NVIDIA 的 Alpamayo 為例,他是全球第一個會思考、會解釋決策的端到端自駕 AI,它能清楚說明自己即將採取的行為、做出該行為的理由,以及預期的行車軌跡,而這一點對自駕而言至關重要,因為無限多的 long-tail 場景常常是自駕車最難以判斷的情況。Alpamayo 的訓練結合真人駕駛示範、Cosmos 生成的物理一致合成資料,以及大量高品質人工標註,讓模型能把陌生情境拆解為已知的物理與交通子問題來推理。更重要的是安全架構設計,Alpamayo 與一套可完全追溯、規則導向的傳統自駕堆疊同時運行,由安全與政策評估器即時判斷是否交由 Alpamayo 接手,否則切回保守系統。這套雙堆疊機制,搭配與 Mercedes-Benz 的實際量產合作,讓 Alpamayo 準備進入真實道路、並能持續 OTA 演進的商用級 Physical AI。
重點六:機器人是下一個 AI 產業浪潮

在機器人領域,黃仁勳把未來十年形容為「真正的機器人時代」,他展示了機器人如何在 Omniverse 與 Isaac Sim/Isaac Lab 中在虛擬世界反覆訓練行走、操作、協調與避障,等到行為穩定後才進入現實世界,讓機器人不再依賴昂貴且危險的實體試錯。更進一步,他將工廠本身定義為巨大的機器人系統,從晶片設計、系統模擬、生產線配置,到實際運作,全都在電腦中先完成設計與驗證,這也是 NVIDIA 與 Cadence、Synopsys、Siemens 等工業軟體巨頭合作的核心,他們把代理式 AI 引入設計、製造與營運流程。最終願景是希望各種尺寸、各種用途的機器人都共享同一套 Physical AI 方法論,而這將成為繼自駕之後,規模更大、影響更深的下一個 AI 產業浪潮。
看更多Nvidia 相關內容
