在代理人工智慧系統時代協調運算
AI Summary
人工智慧與通用型運算正在融合,這是由持續推論及代理人工智慧的崛起所促成。隨著模型橫跨企業和雲端工作負載,從開發移往生產,資料中心必須以最佳化的協調環境運作,以實現持續的吞吐量、效率、機櫃層級效能及系統整合。Arm 位居這項轉型的中心,提供最佳化的 CPU 架構與運算平台,適合用於代理人工智慧系統,以及在雲端 AI 和邊緣資料中心的人工智慧主節點部署。
效能受系統效率影響
隨著代理人工智慧系統擴大規模,整體效能將會取決於平台如何有效率地協調代理程式,並在機櫃之間協調 CPU、網路和加速器。機櫃密度、運算利用率和總持有成本,受到功耗效率、記憶體頻寬和系統層級整合影響,而不僅取決於尖峰吞吐量。
Arm 架構平台專為融合型人工智慧資料中心設計,可在持續的人工智慧工作負載下,提供更高的機櫃層級效能、顯著提升能源效率,並降低總持有成本。
效能
每機架實現突破性的效能表現。
擴展性
專為代理式 AI 驅動的吉瓦級規模運作所設計。
效率
更低功耗,提供更高的效能密度。
人工智慧系統的應用場合
-
資料中心 AI
-
雲端運算
-
電信與網路
-
高效能運算
驅動可擴展資料中心人工智慧
隨著人工智慧系統擴展應用於資料中心,Arm 架構 CPU 在協調工作負載、饋送資料給加速器及維持整體機櫃效率方面,扮演重要角色。Arm 藉由提供每瓦高效能與可擴展的系統設計,協助客戶提升人工智慧吞吐量,同時降低功耗和整體基礎基礎設施成本。
以更高的效能實現最強的雲端運算
隨著人工智慧與雲端原生工作負載的融合,Arm 架構 CPU 提供在分散式雲端環境擴展所需的效能與效率。Arm Neoverse 處理器可在各種雲端工作負載提供效能與效率,實現大規模的雲端 AI 服務。
推動次世代電信與網路基礎設施
隨著人工智慧系統日漸分散,網路和控制面板發揮關鍵作用。Arm 協助建構雲端原生的軟體定義網路基礎設施,支援低延遲的資料移動和系統協調,適用於分散式人工智慧工作負載。
實現大規模人工智慧協調管理的運算平台
隨著人工智慧系統需要協調管理,CPU 成為現代人工智慧資料中心的控制與數據管理引擎。適用於雲端 AI 的 Neoverse 運算平台,可在各種工作負載之間進行可擴展的協調,同時保留 IP、運算子系統及 CPU 之間的合作夥伴選擇。
Arm Neoverse CSS V3
Arm Neoverse CSS V3 提供高效能且客製化的 Neoverse V3 子系統,可加速開發雲端 CPU 與客製化人工智慧加速器,同時降低成本與風險,並縮短上市時程。
Arm Neoverse CSS N2
Arm Neoverse CSS N2 是節能且預先整合的運算子系統,可結合 Neoverse N2 核心與 Arm 系統 IP,協助合作夥伴讓雲端與基礎設施晶片加速上市。
頂尖超大規模運算業者正在 Arm 架構上建構雲端 AI 的未來
NVIDIA、AWS、Google Cloud 與 Microsoft 在雲端和資料中心基礎設施革新 Arm 架構平台,推動下一波可擴展且節能的人工智慧創新。
最新消息與資源
- 最新消息與部落格
- 成功案例
- 電子書
透過 Arm 技術帶動正向變革
瞭解我們的合作夥伴如何建構未來,並推動人工智慧在任何地方為所有人提供服務。
在您的資料中心人工智慧享有競爭優勢
Arm Neoverse 讓組織能夠以所需的效能、效率與彈性,推動基礎設施現代化,以滿足現今需求並推動未來創新 (無論是在雲端或內部部署)。
保持聯繫
訂閱最新動態即可掌握最新消息、個案研究與技術洞見。
常見問題
什麼是融合型人工智慧資料中心?
融合型人工智慧資料中心將運算、加速器、記憶體和網路,整合至協調系統之中,專為大規模高效執行人工智慧工作負載而設計。與傳統架構不同,融合將人工智慧視為系統層級問題,而非一系列互相隔離的元件。
為何 CPU 是融合型人工智慧資料中心的核心所在?
加速器帶動模型運算,CPU 則是系統提供實際人工智慧服務不可或缺的基礎。每個人工智慧資料中心 (無論是訓練還是推論),都仰賴基於 CPU 的主節點來協調加速器、管理記憶體、進行預先與後處理,以及維持系統控制。
隨著推論變得更持續且以代理程式為基礎,這些協調作業的規模也會隨之擴大。人工智慧系統越來越仰賴 CPU 來排程工作、管理狀態、支援鍵值快取和向量資料庫,以及處理與資料和服務的持續互動。在這樣的環境中,效率和核心密度與尖峰效能一樣重要。
Arm 如何提升雲端 AI 的每瓦效能?
Arm CPU 專為效率所設計,可在固定功耗和冷卻限制內提供更多可用的運算能力。如此一來,雲端供應商就能擴展人工智慧容量,而不會導致能源消耗依比例增加。
Arm 相較於 x86 的雲端 AI 表現如何?
針對大規模的雲端 AI,Arm 架構平台提供所需的每瓦效能和核心密度,以達到最高機櫃層級效率及控制總持有成本。Arm 專為持續推論、代理程式協調管理及加速器協調所設計,可在超大規模環境中實現更高的工作負載密度和更低的功耗。效率、擴展能力,以及支援雲端原生生態系的結合,讓 Arm 超越傳統的 x86 平台,成為現代雲端 AI 基礎設施的強大選擇。
企業能否將 Arm 用於雲端 AI 資料中心,或僅限於超大規模運算業者?
雖然 Arm 架構雲端 AI 平台由超大規模運算業者率先採用,但目前已逐漸開放給所有規模的企業,並可支援廣大的軟體與硬體生態系。