概述

在代理人工智慧系統時代協調運算

AI Summary

人工智慧與通用型運算正在融合,這是由持續推論及代理人工智慧的崛起所促成。隨著模型橫跨企業和雲端工作負載,從開發移往生產,資料中心必須以最佳化的協調環境運作,以實現持續的吞吐量、效率、機櫃層級效能及系統整合。Arm 位居這項轉型的中心,提供最佳化的 CPU 架構與運算平台,適合用於代理人工智慧系統,以及在雲端 AI 和邊緣資料中心的人工智慧主節點部署。

效能

效能受系統效率影響

隨著代理人工智慧系統擴大規模,整體效能將會取決於平台如何有效率地協調代理程式,並在機櫃之間協調 CPU、網路和加速器。機櫃密度、運算利用率和總持有成本,受到功耗效率、記憶體頻寬和系統層級整合影響,而不僅取決於尖峰吞吐量。

 

Arm 架構平台專為融合型人工智慧資料中心設計,可在持續的人工智慧工作負載下,提供更高的機櫃層級效能、顯著提升能源效率,並降低總持有成本。

Industry level leading performance

效能

每機架實現突破性的效能表現。

performance that scales icon

擴展性

專為代理式 AI 驅動的吉瓦級規模運作所設計。

leverage arm everywhere icon

效率

更低功耗,提供更高的效能密度。

基礎設施

人工智慧系統的應用場合

  • Datacenter AI
    資料中心 AI
  • Cloud Computing icon
    雲端運算
  • Telco and Networking icon
    電信與網路
  • HPC icon
    高效能運算

驅動可擴展資料中心人工智慧

隨著人工智慧系統擴展應用於資料中心,Arm 架構 CPU 在協調工作負載、饋送資料給加速器及維持整體機櫃效率方面,扮演重要角色。Arm 藉由提供每瓦高效能與可擴展的系統設計,協助客戶提升人工智慧吞吐量,同時降低功耗和整體基礎基礎設施成本。

Datacenter AI

以更高的效能實現最強的雲端運算

隨著人工智慧與雲端原生工作負載的融合,Arm 架構 CPU 提供在分散式雲端環境擴展所需的效能與效率。Arm Neoverse 處理器可在各種雲端工作負載提供效能與效率,實現大規模的雲端 AI 服務。

Cloud Computing

推動次世代電信與網路基礎設施

隨著人工智慧系統日漸分散,網路和控制面板發揮關鍵作用。Arm 協助建構雲端原生的軟體定義網路基礎設施,支援低延遲的資料移動和系統協調,適用於分散式人工智慧工作負載。

Telco and networking

為高效能運算奠定基礎

科學與研究環境日漸結合模擬、分析和人工智慧推論。Arm 以高效的架構及專為持續大規模運作所設計的成熟軟體生態系,支援這些工作負載。

HPC
運算平台

實現大規模人工智慧協調管理的運算平台

隨著人工智慧系統需要協調管理,CPU 成為現代人工智慧資料中心的控制與數據管理引擎。適用於雲端 AI 的 Neoverse 運算平台,可在各種工作負載之間進行可擴展的協調,同時保留 IP、運算子系統及 CPU 之間的合作夥伴選擇。

合作夥伴

頂尖超大規模運算業者正在 Arm 架構上建構雲端 AI 的未來

NVIDIA、AWS、Google Cloud 與 Microsoft 在雲端和資料中心基礎設施革新 Arm 架構平台,推動下一波可擴展且節能的人工智慧創新。

Arm and NVIDIA

NVIDIA Grace Blackwell 平台與次世代 Vera Rubin CPU 是以 Arm 架構 CPU 創新為基礎建構而成。Vera 具備 88 個 Arm 架構核心,專門設計用於在資料中心與高效能運算環境中推動代理人工智慧與推論。

Arm and AWS

AWS 以 Graviton5 擴展其 Arm 架構產品組合,相較於前代產品,提升高達 25% 的效能並降低 33% 的延遲。Graviton CPU 也驅動 Trainium3 UltraServer,旨在為大規模人工智慧工作負載提供可擴展且具成本效益的基礎設施。1

Arm and Google Cloud

Google Cloud Axion 架構 C4A 與 N4A 執行個體讓 Arm 能夠處理通用工作負載,相較於 x86 方案,N4A 提升高達 2 倍的性價比,每瓦效能則高出 80%。2

Arm Microsoft logo

Microsoft Cobalt 100 與 Cobalt 200 處理器是以 Arm Neoverse 為基礎建構而成,可在 Azure 擴展 Arm 架構運算,以提升效率與效能,支援企業、雲端原生與人工智慧驅動工作負載。

軟體

專為擴展需求打造的生態系

在超過 50,000 家公司中,超過 2,200 萬名開發人員在 Arm 架構環境建構並執行軟體。如此成熟的生態系使雲端 AI 工作負載能加速擴展、更輕鬆遷移,並在各種環境中持續運作。

Arm 雲端遷移計畫

在 Arm 架構上建構與擴展雲端原生工作負載,實現更高效能、更低成本與順暢的可攜性。

Arm 開發人員

取得開發人員資源,協助您更快速創新可擴展的 Arm 架構雲端 AI 基礎設施。

資源

最新消息與資源

  • 最新消息與部落格
  • 成功案例
  • 電子書
Generic Solutions_Dark Mode

透過 Arm 技術帶動正向變革

瞭解我們的合作夥伴如何建構未來,並推動人工智慧在任何地方為所有人提供服務。

Generic Guides

在您的資料中心人工智慧享有競爭優勢

Arm Neoverse 讓組織能夠以所需的效能、效率與彈性,推動基礎設施現代化,以滿足現今需求並推動未來創新 (無論是在雲端或內部部署)。

保持聯繫

訂閱最新動態即可掌握最新消息、個案研究與技術洞見。

FAQs

常見問題

什麼是融合型人工智慧資料中心?

融合型人工智慧資料中心將運算、加速器、記憶體和網路,整合至協調系統之中,專為大規模高效執行人工智慧工作負載而設計。與傳統架構不同,融合將人工智慧視為系統層級問題,而非一系列互相隔離的元件。

為何 CPU 是融合型人工智慧資料中心的核心所在?

加速器帶動模型運算,CPU 則是系統提供實際人工智慧服務不可或缺的基礎。每個人工智慧資料中心 (無論是訓練還是推論),都仰賴基於 CPU 的主節點來協調加速器、管理記憶體、進行預先與後處理,以及維持系統控制。

隨著推論變得更持續且以代理程式為基礎,這些協調作業的規模也會隨之擴大。人工智慧系統越來越仰賴 CPU 來排程工作、管理狀態、支援鍵值快取和向量資料庫,以及處理與資料和服務的持續互動。在這樣的環境中,效率和核心密度與尖峰效能一樣重要。

Arm 如何提升雲端 AI 的每瓦效能?

Arm CPU 專為效率所設計,可在固定功耗和冷卻限制內提供更多可用的運算能力。如此一來,雲端供應商就能擴展人工智慧容量,而不會導致能源消耗依比例增加。

Arm 相較於 x86 的雲端 AI 表現如何?

針對大規模的雲端 AI,Arm 架構平台提供所需的每瓦效能和核心密度,以達到最高機櫃層級效率及控制總持有成本。Arm 專為持續推論、代理程式協調管理及加速器協調所設計,可在超大規模環境中實現更高的工作負載密度和更低的功耗。效率、擴展能力,以及支援雲端原生生態系的結合,讓 Arm 超越傳統的 x86 平台,成為現代雲端 AI 基礎設施的強大選擇。

企業能否將 Arm 用於雲端 AI 資料中心,或僅限於超大規模運算業者?

雖然 Arm 架構雲端 AI 平台由超大規模運算業者率先採用,但目前已逐漸開放給所有規模的企業,並可支援廣大的軟體與硬體生態系。