雲端開發者正加速向 Arm 架構遷移:建構 AI 時代的未來基礎設施

February 03, 2026

雲端開發者正加速採用基於 Arm 架構的平台,憑藉其無可比擬的每瓦效能和成本優勢,更快地將 AI 工作負載擴展並投入正式營運。

人工智慧 (AI) 正重塑數位格局,開發者也面臨全新挑戰:基礎設施不僅要具備強大運算能力,還需兼具可擴展性、成本效益和高能源效率等特徵。當前,亞馬遜網路服務 (AWS)、Google、微軟、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大規模雲端服務提供者與 AI 領先企業,均已基於 Arm 架構打造客製化解決方案,佈局 AI 資料中心。

此一趨勢正在蓬勃發展。2025 年領先的超大規模雲端服務提供者的新增伺服器算力中,有近半數是基於 Arm 架構。Arm Neoverse 平台正在為量產級 AI 工作流程、向量搜尋引擎、即時機器學習 (ML) 平台及雲端原生微服務提供運算能力支援,同時在成本效益、輸送量與節能方面,達到可量化的顯著提升。隨著 AI 工作負載持續擴展,基礎設施的選擇也更為關鍵。


AI 工作負載貫穿端到端,Arm 驅動全流程的最佳化

AI 的應用早已不再侷限於推論或模型訓練。從資料預處理、模型編排,到即時服務與記憶體管理,如今的 AI 技術堆疊已包含整個運算工作流程。這也帶來對延遲、成本、功耗及擴展性方面的全新系統級挑戰,而這些早已超出傳統通用 CPU 的設計初衷與能力範圍。

Arm 在這場變革中扮演核心角色——其價值不僅限於 CPU 層面,更貫穿整個 AI 系統架構。

在 AWS, Arm Neoverse 核心為 Graviton 通用運算平台、Nitro 資料處理單元 (DPU) 提供運算能力支援,並做為 AI 加速器的前端節點 (head node),為 AI 工作流程打造高度整合、能源效率出眾的基礎設施。

NVIDIA 也採用類似架構設計:Arm 架構是 Grace 與 Vera CPU 的技術基礎,二者均做為 AI 系統的前端節點部署;同時 Arm 還為 BlueField DPU 提供運算能力支援,協助資料移轉與卸載處理,為 AI 資料中心設計打造一體化的平台解決方案。

憑藉卓越的每瓦效能、強大的記憶體頻寬,以及在 Amazon GravitonGoogle Cloud AxionMicrosoft Azure Cobalt、NVIDIA Grace 等平台上的規模化部署,基於 Arm 架構的基礎設施正逐漸成為可擴展、高性價比 AI 工作負載的首選方案。

Arm 正成為雲端運算的新標準

雲端運算領域正經歷一場策略性轉變:全球領先的雲端服務提供者都在增加基於 Arm 架構的基礎設施建設,將其做為融合型 AI 資料中心規模化部署的預設路徑。這並非試點探索,而是著眼於長期的架構策略。

在軟體層面,Atlassian、Spotify 和優步 (Uber) 等企業,已開始借助通用工具與社群文件,將核心工作負載遷移至基於 Arm 架構的雲端基礎設施,且無需對底層平台進行大幅度的重新建構。Atlassian 表示,在將核心服務遷移至 Arm 執行個體後,運算成本顯著降低,CI/CD 工作流程運行速度也得到提升;Spotify 在後端工作負載中試用 Graviton 平台後,達到顯著的基礎設施效率提升;Uber 則透過基於 Arm 架構的基礎設施,在最佳化微服務效能的同時,降低單執行個體的運營成本。

同時,Arm 提供的一系列工具正加速此遷移過程。例如 Arm MCP(模型上下文協定)伺服器以及整合於 GitHub Copilot 的 Arm 雲端遷移代理 (Cloud Migration Agent),正説明開發者評估工作負載相容性、加快雲端遷移過程,並完成穩定可靠的規模化部署。目前,專為各類 Arm 雲端平台量身打造的 Arm MCP 伺服器已對所有軟體發展者開放,它可將雲端遷移工具與專業經驗直接融入開發者常用的 AI 助理中,進而驅動自主化的智慧代理工作流程。

透過自動化最佳實踐、加速開發流程並提供即時指導,該工具大幅度地簡化遷移路徑,讓開發團隊從專案開始的第一天起,即可更輕鬆地獲得成本、能源效率與效能優勢。早期使用者的回饋也驗證了其在真實遷移場景中具備高度實用性。

開發者轉向 Arm 架構的五大案例

除上述全球軟體企業外,其他科技公司在日常運營中採用基於 Arm 架構的雲端基礎設施時,也得到類似效益。

1. 借助 Graviton3,LLM 推論成本降低 35%

Vociply AI 是一家專注於大規模部署大語言模型 (LLM) 的 AI 新創企業,在切換至 Amazon Graviton3 後,其單月基礎設施成本從 2,000 美元降至 1,300 美元,同時效能得到同步提升,具體事項包括:

  • 性價比提升 40%
  • 詞元 (token) 輸送量提升 15.6%
  • 功耗降低 23%

此一成果受惠於 Arm Neoverse 核心、Neon™ 指令集深度最佳化,以及 llama.cpp 等量化推論引擎的支援。

2. 生成式 AI 工作流程加速,基礎設施成本降低 40%

生成式 IT 及 AI 解決方案平台 Esankethik 將其完整技術堆疊——包括預處理、訓練與推論部分,全面遷移至基於 Arm 架構的 Graviton 執行個體,並獲得顯著成效,具體事項包括:

  • 推論業務延遲降低 25%
  • 每百萬次請求的 Lambda 成本降低 40%
  • 記憶體效率提升 15%

透過在 Arm 平台上統一運行預處理、訓練與推論任務,Esankethik 有效緩解了效能瓶頸,並顯著提升了系統可擴展性。

3. SiteMana 實現即時 ML 的穩定規模化

潛在客戶開發技術公司 SiteMana 已將其即時 ML 推論與資料攝取任務遷移至 Graviton3 平台,並獲得顯著成效:

  • 單月成本降低約 25%
  • P95 延遲降低約 15%
  • 網路頻寬提升 2.5 倍

此次遷移有效解決了 CPU 降頻問題,並在峰值負載下維持穩定的系統效能。

4. AuthZed 提升開發者工作流效率

AuthZed 做為基礎設施服務授權平台,已將其從開發筆電到雲端的所有工作負載,統一遷移至 Arm 架構,藉此落實了:

  • 本地建構速度提升 40%
  • 生產環境 CPU 利用率提升 20%–25%
  • 運算成本降低約 20%

該方案在不改變開發者既有工作習慣的前提下,達到工作流程的大幅精簡最佳化。

5. Zilliz Cloud 提升 AI 搜索輸送量

Zilliz Cloud 是一套專為正式環境中的 AI 應用打造、完全託管的向量資料庫,近期已將其向量搜尋引擎遷移至 Graviton3,實現以下最佳化的成果:

  • 索引建構效能提升 50%
  • 十億級查詢場景下,向量搜索速度提升 20%
  • 單查詢成本降低,輸送量提升

該成果適用於語義搜索、檢索增強生成 (RAG) 及多模態 AI 任務。

為 AI 雲端時代而生

Arm Neoverse 專為現代工作負載打造——涵蓋 LLM、向量搜索、即時 ML、資料分析及高密度微服務等場景。與 x86 相比,基於 Arm 的執行個體具備以下優勢:

  • 更卓越的性價比優勢
  • 更出色的 AI 與雲端原生工作負載效能
  • 成熟的軟體生態系與完善的開發者工具鏈
  • 透過 Arm KleidiAI 為 AI 框架提供最佳化支援,實現無縫效能調校與整合

Arm 提供涵蓋開發者資源、效能調校指南與雲端遷移清單在內的完整套件,顯著簡化 AI 與雲端工作負載的遷移流程。這些資源可降低遷移阻力,支援效能調校,且無需對平台進行全面的重新建構。

開發者可透過 Arm 雲端遷移計畫獲取遷移資源、技術指南及專家諮詢服務。

此外,Arm MCP Server 現已對所有開發者開放,可幫助識別並高效率地執行從 x86 到 Arm 架構的遷移。開發者可點擊此處,瀏覽 Arm MCP Server。

AI 時代的基礎設施平台

基於 Arm 的雲端基礎設施正快速成為 AI 運算策略的基礎。

隨著工作負載持續擴展,能源效率的重要性也日益凸顯,基礎設施需以更少資源提供更多價值。Arm 是打造次世代 AI 系統的開發者,提供切實可行的實踐路徑。

關於 Arm

Arm 是業界效能最高且最節能的運算平台,其無可比擬的應用範疇觸及全球所有連網使用者。為因應全球對運算永無止境的需求,Arm 提供先進的解決方案,使全球領先的科技公司得以釋放前所未有的 AI 體驗與功能。透過與全球最大的運算生態系及 2,200 萬名軟體開發者的共同努力,我們正在 Arm 平台上建構 AI 的未來。


所有資訊都「依目前情況」提供,且並不帶保證或代表性。此文件可以自由分享,但不得修改且必須註明出處。Arm 是 Arm Limited(或其子公司與附屬機構)的註冊商標。所有品牌或產品名稱均為所屬公司之財產。© 1995-2026 Arm Limited.