重新思考 AI 时代的数据中心
AI Summary
AI 正在推动数据中心向专用、工作负载优化的基础设施发展,这种基础设施强调能效、可扩展性和性能。Arm 的 Neoverse CPU 提供灵活的计算基础,可与加速器无缝集成,以支持 AI 工作负载,例如推荐引擎、大语言模型 (LLM) 和检索-增强-生成 (RAG)。该平台配备强大的开发者工具,使超大规模云服务提供商和云服务提供商能够高效地扩展 AI,同时降低成本。
AI 数据中心内部:定制芯片和Arm生态系统的力量
听听 Arm 云 AI 业务部门负责人 Mohammed Awad 的见解,他将探讨 AI 如何重塑数据中心设计,为什么每瓦性能现在定义了云竞争力,以及 Arm 生态系统如何加速下一代 AI 时代的定制芯片。
更强的计算能力、更高的效率、更优的性价比
Arm 提供高能效的计算能力,可与各种 AI 加速器无缝配合,帮助您在降低总体拥有成本 (TCO) 的同时,实现强大的性能和效率。
通过针对实际性能优化的基础设施,赋能行业领导者
Arm 助力行业领导者构建新一代可扩展、高效的数据中心,其计算解决方案针对实际性能进行了优化。Arm CPU 专为高性能、高能效和无缝扩展而设计,非常适合与加速器配合使用,以满足最苛刻的 AI 和云工作负载需求。
了解基于 Arm 架构的 AWS Graviton 处理器如何以领先的性价比和效率改变云计算,为 AI 和云原生工作负载提供支持,目前已为超过 50% 的 AWS 最新 CPU 容量提供动力。
探索 Axion(首款 Google Cloud 定制基于 Arm 架构 CPU)如何提升 AI 和云工作负载的性能和效率,其性能比目前的 x86 实例高出 2 倍。
了解 Arm 的节能计算平台如何成为NVIDIA加速计算平台(包括 Grace CPU 系列)的关键要素,从而在 AI 任务中实现高达 10 倍的性能提升。
Arm Neoverse 平台提供强大的 AI/ML 性能
Arm Neoverse 平台 CPU 专为高效处理高要求的 AI 工作负载而设计,具有高吞吐量、高能效和低 TCO,因此在 CPU 是实际选择时,它们是理想之选。从推荐引擎和语言模型推理到检索-增强-生成 (RAG),Neoverse 可扩展到广泛的 AI 应用。
适用于所有 AI 工作负载的 Arm 计算平台
随着 AI 从 发展到 ,再到现在的 ,工作负载变得越来越需要计算和电力。满足这些需求需要转向异构基础设施,使系统能够动态地将每个工作负载与合适的处理器匹配,从而优化性能、能效和成本。
Arm Neoverse 平台 CPU 提供了一个节能、可扩展的计算平台,可与 GPU、NPU 和定制加速器无缝集成,并提供更高的性能、灵活性、效率和可扩展性。
利用 Arm 软件和工具优化 AI 工作负载
开发者需要优化的工具,以便能够快速高效地部署 AI,而无需付出太多努力。Arm 软件生态系统(包括 Arm Kleidi 库和广泛的框架支持)有助于加快部署速度,并提高云端和边缘侧的 AI 工作负载性能。
最新新闻和资源
- 新闻和博客
- 报告
- 播客
- 白皮书
构建从云端到边缘侧的可扩展 AI 平台
了解帮助企业设计面向未来的计算堆栈的五项决策。探索如何采用异构计算、统一软件层,并使基础设施与业务目标保持一致,从而降低延迟并跨环境高效扩展。
关键要点
Key Takeaways
- Arm 助力数据中心从通用平台转型为专为提高效率和可扩展性而构建的专用、工作负载优化的 AI 基础设施。
- Neoverse CPU 为 AI 应用(包括推荐引擎和大语言模型 (LLM) 推理)提供高吞吐量、高能效和更低的 TCO。
- 来自Google、AWS、 微软和 NVIDIA 等合作伙伴的基于 Arm 架构的处理器,与 x86 系统相比,训练性能可提高 8 倍,推理性能可提高 4.5 倍。
- 基于 Arm 架构的异构基础设施可动态地将工作负载与 CPU、GPU、NPU 和定制加速器进行匹配,以实现最佳性能和成本。
- Arm 的 Kleidi 库、框架和开发者工具简化了跨云和边缘侧环境的 AI 部署和工作负载优化。
常见问题:数据中心的 AI
为什么说 Arm 是数据中心 AI 的理想选择?
- 节能高效:Arm Neoverse 平台 CPU 提供业界领先的每瓦性能,降低能源成本并提高运营效率。
- 降低总体拥有成本 (TCO):针对现代 AI 工作负载优化的可扩展架构可帮助企业降低基础设施支出。
- 灵活、工作负载优化的系统:基于 Arm 架构的平台可与 GPU、NPU 和定制加速器无缝集成,为每个 AI 任务提供合适的计算能力。
- 深受超大规模云服务提供商信赖:——这凸显了人们对 Arm 在大规模 AI 部署方面越来越有信心。
- 统一的 AI 基础设施:成熟的软件生态系统和广泛的应用支持云和数据中心环境中各种计算引擎之间的无缝集成
基于 Arm 架构的平台如何提升 AI 性能并降低NVIDIA、 Google Cloud 和 AWS 等行业合作伙伴的云成本?
基于 Arm 架构的平台可大规模提升 AI 的性能和效率:
- NVIDIA:与基于 x86 的系统相比,使用 Arm CPU + Grace Hopper 的ML 训练速度最高可提升 8 倍,LLM 推理性能最高可提升 4.5 倍 (GPT-65B)。
- Google Cloud:与基于 x86 的替代方案相比,2.5 倍的推理吞吐量提升以及 64% 的成本降低。
- AWS:基于 Arm 平台的 Graviton CPU 提供动力,具有业界领先的性价比和能效。
这些创新共同实现了在云和超大规模平台上更快、更经济高效的 AI。
Arm 为开发者提供哪些用于 AI 工作负载的工具?
开发者可以使用以下方法加速工作负载:
- Arm Kleidi 库
- 优化的框架和工具链
- 迁移教程及云/服务器开发迁移教程和 Learning Path