重新思考代理式 AI 時代的資料中心
AI Summary
人工智慧正推動資料中心發展特定的工作負載最佳化基礎設施,並將重點放在功耗效率、擴展能力及效能。Arm 為人工智慧資料中心提供 CPU 基礎,與加速器無縫整合,協調人工智慧代理程式,處理資料並支援可擴展的人工智慧工作負載,例如建議引擎、大型語言模型、檢索增強生成及其他項目。Arm 運算平台搭配強大的軟體生態系,可協助超大規模運算業者高效擴展人工智慧基礎設施,同時提升效能、成本及能源效益。
深入解析人工智慧資料中心:客製化晶片與 Arm 生態系的強大力量
聽聽 Arm 雲端 AI 事業部主管 Mohammed Awad 的看法,瞭解人工智慧如何重塑資料中心設計、為何每瓦效能現在決定了雲端競爭力,以及 Arm 生態系如何為人工智慧時代加速打造次世代客製化晶片。
更多運算、更高效率、更出色的性價比
Arm 無縫搭配各式各樣的人工智慧加速器,提供節能運算功能,協助您達到強大的效能及效率,同時降低總持有成本。
讓產業領導廠商享有針對實際效能最佳化的基礎設施
Arm 協助產業領導廠商建構可擴展、人工智慧最佳化的雲端基礎設施,以運算解決方案進行調校,實現實際人工智慧效能。Arm CPU 專為效能、功耗效率及無縫擴展能力所設計,非常適合搭配加速器使用,以滿足要求最嚴苛的人工智慧及雲端工作負載。
探索 Arm 架構的 AWS Graviton 處理器如何以頂尖的性價比及效率為人工智慧及雲端原生工作負載帶來雲端 AI 轉型,目前驅動 AWS Trainium3 UltraServer。
探索 Axion (首款 Google Cloud 客製化 Arm 架構 CPU) 如何推動人工智慧及雲端工作負載的效能及效率。
探索 Arm 節能運算平台如何成為 NVIDIA 加速運算平台 (包括 Grace CPU 系列及現今的 Vera CPU) 中的關鍵要素,協助 NVIDIA 機櫃層級人工智慧解決方案大幅提升效能。
Arm AGI CPU 提供強大的人工智慧效能
Arm AGI CPU 是以 Arm Neoverse CSS V3 為基礎,提供大規模人工智慧所需的極端機櫃密度與效能,加速以追求人工智慧所需的全球運算擴展,同時透過 Arm 生態系加快上市時程。
適用於每項人工智慧工作負載的 Arm 運算平台
隨著人工智慧從傳統機器學習進展為生成式人工智慧及現今的代理模型,工作負載對運算及功耗的需求與日俱增。滿足以上需求需要改用場景定義的 CPU,讓人工智慧系統能夠以適合的處理器動態符合每項工作負載,實現最佳效能、功耗效率及成本。
Arm Neoverse CPU 提供節能且可擴展的運算平台,可與 GPU、NPU 及客製化加速器無縫整合,提供更高的效能、彈性、效率及擴展能力。
使用 Arm 軟體與工具最佳化人工智慧工作負載
開發人員需要最佳化的工具,可快速高效地以最輕鬆的方式部署人工智慧。Arm 軟體生態系包括 Arm Kleidi 函式庫及廣泛的框架支援,有助於加速部署時間,並在雲端與邊緣提升人工智慧工作負載效能。
最新消息與資源
- 最新消息與部落格
- 報告
- Podcast
- 白皮書
建構從雲端到邊緣的可擴展人工智慧平台
瞭解協助企業設計符合未來需求運算堆疊的五項決策。探索如何採用異質化運算、統一軟體層,以及一致的基礎設施與業務目標,以降低延遲並在各種環境高效擴展。
關鍵重點
Key Takeaways
- Arm 推動資料中心轉型,從通用平台成為專為效率及擴展能力打造的工作負載最佳化人工智慧基礎設施。
- Neoverse CPU 為建議引擎與大型語言模型推論等人工智慧應用提供高吞吐量、功耗效率及更低的總持有成本。
- Google、AWS、Microsoft 及 NVIDIA 等合作夥伴推出的 Arm 架構處理器,提供優於 x86 系統 8 倍的訓練效能,以及 4.5 倍的推論效能。
- 異質 Arm 架構基礎設施以動態方式將工作負載與 CPU、GPU、NPU 及客製化加速器進行配對,實現最佳效能及成本。
- Arm Kleidi 函式庫、框架與開發人員工具,可在雲端及邊緣環境簡化人工智慧部署及工作負載最佳化。
常見問題:資料中心的人工智慧
是什麼讓 Arm 在資料中心的人工智慧成為理想選擇?
- 節能效能:Arm Neoverse CPU 提供領先業界的每瓦效能、降低能源成本及提升營運效率。
- 降低總持有成本 (TCO):針對現代人工智慧工作負載最佳化的可擴展架構協助企業降低基礎設施支出。
- 彈性的工作負載最佳化系統:Arm 架構平台與 GPU、NPU 及客製化加速器無縫整合,為每項人工智慧任務提供適當的運算能力。
- 深獲超大規模運算業者信賴:到 2025 年,出貨到頂尖超大規模運算業者的運算中有半數預計會採用 Arm 架構,突顯出 Arm 對大規模人工智慧部署持續成長的信心。
- 統一人工智慧基礎設施:成熟的軟體生態系與廣泛採用,可在雲端及資料中心環境中無縫整合各種不同運算引擎
Arm 架構平台如何在 NVIDIA、Google Cloud 與 AWS 等產業合作夥伴之間提升人工智慧效能及降低雲端成本?
Arm 架構平台大規模提升人工智慧效能與效率:
- NVIDIA:相較於 x86 架構系統,使用 Arm CPU 與 Grace Hopper,機器學習訓練速度加快 8 倍且 LLM 推論效能提升 4.5 倍 (GPT-65B)。
- Google Cloud:相較於 x86 架構的替代方案,Axion 處理器提升高達 3 倍的 MLPerf 效能、2.5 倍的推論吞吐量及降低 64% 的成本。
- AWS:在 Arm 架構上打造的 Graviton CPU 可驅動超過 50% 的 AWS 近期容量,提供領先業界的性價比及能源效率。
以上創新成果共同在雲端及超大規模平台實現更快速、更具成本效益的人工智慧。
保持聯繫
訂閱最新動態即可掌握最新消息、趨勢、個案研究與技術洞見。
1.NVIDIA GH200 Grace Hopper 超級晶片架構
2.評估結果是以第三方評估為基礎。所有測試都是由 Signal65 執行,
並根據測試時註明的 AWS 執行個體及規格進行測量。請在此瞭解完整方法。結果可能不同。
3. 透過採用 Arm Neoverse 架構的 Google Axion 處理器,發揮檢索增強生成的強大力量
4. 以 ONNX Runtime 在採用 Arm Neoverse 技術的 Microsoft Cobalt 100 上加速 LLM 推論