Arm 驅動 AI 代理時代,引領融合型 AI 資料中心規模化演進
隨著系統級 AI 設計的持續演進,CPU 的角色正不斷拓展,而 Arm 正是支撐未來發展的基礎。
要實現人工智慧 (AI) 的規模化應用,唯一路徑便是開展全堆疊式系統設計。加速器負責處理驅動 AI 模型的數學運算,而 CPU 才是支撐系統,將運算能力轉化為實際價值的核心基礎。隨著 AI 基礎設施朝向高密度整合機架與超級叢集架構演進,CPU 在系統的編排、協調、安全防護及規模化擴展中扮演著核心角色,其效能提升速度至少與加速器保持同步,很多情況下甚至更快。NVIDIA 在 CES 2026 發表的 Vera Rubin 平台,證明了這項轉變:這是一套完整協同設計的 AI 系統,以如同單一、整體運作的超級電腦為目標而打造,而 Arm 技術正位於其核心之中。
這反映出整個產業正朝著專用化、系統級 AI 平台轉型:從底層架構出發,將運算、加速、網路、儲存及安全功能緊密整合。超大規模雲端服務提供者與專注於 AI 領域的新型雲端服務提供者,正透過多種路徑趨向該模式發展,譬如採用 NVIDIA 平台、亞馬遜網路服務 (AWS) 的 Amazon Trainium 和 Google 的 TPU 等超大規模雲端服務提供者自行研發的加速器,以及融合商用晶片與客製化晶片的高度協同混合系統。如今,AI 的擴展和升級已不再僅依賴加速器的原始效能。在這些系統環境中,負責資料傳輸、同步、可靠性保障及隔離控制的 CPU 層相當重要。而在業界領先的整合式 AI 系統中,此一核心 CPU 層都是基於 Arm 平台建構。
Arm 在推動 AI 時代的「極致協同設計」方面發揮著決定性作用
Vera Rubin 平台整合六款經極致協同設計的晶片,包括 Vera CPU、Rubin GPU、NVLink™ 6 交換機、ConnectX®-9 SuperNIC、BlueField®-4 DPU 和 Spectrum™-6 乙太網交換機。它們共同構成了 NVIDIA 所定義的一體式 AI 超級電腦,針對訓練、推論、邏輯推演及代理式 AI (Agentic AI) 工作負載,進行端到端的最佳化,顯著降低了每詞元 (Token) 成本。該平台中 NVIDIA 基於 Arm 架構打造的 CPU,實現了高達六倍的迭代效能提升,記憶體與互連頻寬也得到了顯著升級。這一切均是晶片與軟體層全系統最佳化的組成部分,共同推動著 NVL72 機架級 AI 系統整體效能的躍升。傳統商用非客製化的 CPU 很難取得此類效能突破,必須採用專用化設計方案才能實現。
亞馬遜網路服務的 Amazon Trainium3 UltraServer 採用了類似的設計思路,將 Trainium3 加速器晶片與 Amazon Graviton CPU 及 Nitro 卡相結合,使基於 Arm 架構的專用晶片成為該平台的核心元件。
除了這些平台的覆蓋廣度,更值得我們關注的是其背後的架構理念。每個元件的設計都充分考量了與其他元件的協同性,進而在規模化部署中大幅減少效能瓶頸、提升運行效率。在 CES 2026 的主題演講中,NVIDIA 執行長黃仁勳以「極致協同設計」一詞定義此一轉型趨勢。要實現這種深度整合,不僅需要頂尖的效能與能源效率,還需要在不影響軟體相容性的前提下,為系統單晶片 (SoC) 設計提供充足的靈活性與創新空間——這正是 Arm 技術的價值所在。
Vera 和 BlueField:Arm 位居 AI 創新核心
Vera Rubin 平台包含兩款基於 Arm 技術打造的關鍵 SoC。
Vera 是一款專為大規模 AI 系統量身打造的 CPU,最佳化重點聚焦於資料傳輸、編排及AI 代理推論,而非傳統通用型工作負載。該 CPU 採用單晶粒 (die) 88 顆核心打造,效能達到上一代 Grace CPU 的兩倍,記憶體與晶片之間的頻寬也有顯著提升。
BlueField-4 展示了 DPU 領域的跨越式發展。產業整合基於 Arm Neoverse V2 平台的 Grace CPU (此前該 SoC 僅應用於高效能伺服器級系統),NVIDIA 大幅擴展 BlueField 在大規模 AI 基礎設施中的應用場景。與前幾代產品相比,BlueField-4 的 CPU 核心數從 16 顆增加至 64 顆,單核效能也有顯著提升。
對於大型 AI 代理模型而言,記憶體容量與頻寬正日益成為限制效能的關鍵瓶頸。產業將 BlueField-4 的運算能力提升至 BlueField-3 的六倍,NVIDIA 破解了此一難題,並成功將 DPU 升級為可獨立運行的伺服器級系統。NVIDIA 的發表內容充分印證此項轉變:除了在 Vera Rubin 刀鋒伺服器 (Blade) 中部署 BlueField-4 之外,該晶片還將做為一類新型 AI 推論專用儲存伺服器的控制器——這類儲存伺服器專為補充機架級系統功能而設計。
Vera 與 BlueField-4 均完全相容於以 Arm Neoverse 平台建構的廣泛軟體生態系,能夠觸及從邊緣到雲端的超過 2,200 萬名開發者。目前,各大主流雲端服務提供者均已部署基於 Arm Neoverse 平台建構的 CPU 執行個體,企業級採用率也在持續提升。有鑑於此,這些基於 Arm 架構的 NVIDIA 系統可充分利用各類開源及商用軟體,實現各項應用得以快速、無縫開發與部署。
產業正朝向共享架構的匯聚
在整個產業中,系統設計者正逐步匯聚於一套共同的 AI 架構模型:
- 針對 AI 運算的專用加速器;
- 高效能且具能源效率的 CPU,負責系統的協調與控制;
- 支援跨叢集擴展的緊密系統級整合。
Arm Neoverse 平台的設計初衷便是支援這項產業轉型趨勢,目前已被全球頂尖的技術提供 (包括亞馬遜網路服務、Google、Meta、微軟及 NVIDIA) 應用於其系統中。在這樣的產業版圖中,基於 Arm 的 CPU 正日益成為支撐大規模 AI 的關鍵,負責控制、協調以及資料流動等核心層面。
AI 時代的規模化演進
邁入 2026 年,AI 的技術演進正以空前速度加速中,且日益成為一個系統級——甚至超系統級——的複雜課題。如今,智慧技術的擴展升級不僅依賴加速器的原始效能,同樣取決於高效率的資料儲存與傳輸能力。將關鍵的 AI 相關功能卸載至網路與儲存系統中強大且可程式設計的 CPU 架構,既能讓加速器與主機 CPU 專注於核心的訓練與推論負載,又能提升系統的隔離性、能源效率與可靠性。在硬體日益朝向專用化的趨勢下,如何在快速反覆運算的晶片世代中保持軟體生態的一致性,已成為產業面臨的關鍵課題。
隨著 AI 系統的規模與複雜度持續提升,Arm 及其生態系的角色也正擴展至資料中心的每一個層面。Vera Rubin 的相關宣布正是這一發展軌跡的有力例證,也是在新的一年展開之際,Arm 生態系的重要里程碑。
關於 Arm
Arm 是業界效能最高且最節能的運算平台,其無可比擬的應用範疇觸及全球所有連網使用者。為因應全球對運算永無止境的需求,Arm 提供先進的解決方案,使全球領先的科技公司得以釋放前所未有的 AI 體驗與功能。透過與全球最大的運算生態系及 2,200 萬名軟體開發者的共同努力,我們正在 Arm 平台上建構 AI 的未來。
所有資訊都「依目前情況」提供,且並不帶保證或代表性。此文件可以自由分享,但不得修改且必須註明出處。Arm 是 Arm Limited(或其子公司與附屬機構)的註冊商標。所有品牌或產品名稱均為所屬公司之財產。© 1995-2025 Arm Limited.