世界で最も効率的なエージェント型CPU
AI Summary
ソフトウェアエージェントが推論、意思決定、行動するようになり、CPUには新たな要求が生まれています。これらのワークロードには、コンピューティングのオーケストレーション、アクセラレータの管理、数千ものエージェントの同時調整が可能なプロセッサが必要です。これはコンピューティングの新時代であり、新たなクラスのプロセッサが求められています。
Arm AGI CPUは、大規模なAIインフラストラクチャ向けに設計されたArm初の量産化シリコンです。最新のデータセンターにおけるエージェント型AIの運用向けに、優れたパフォーマンスと極めて高いラックレベルの密度をサポートする新たなクラスのCPUを提供します。Arm Neoverse CSS V3をベースとし、Armのデータセンター向け製品にArm AGI CPUが加わったことで、Armの広範なソフトウェアおよびハードウェアのエコシステムの活用を通じ、市場投入までの時間をさらに短縮できると見込んでいます。
ラックあたり2倍以上のパフォーマンスをArmで実現
Arm AGI CPUは、ラック規模で最大限のパフォーマンスを発揮できるように設計されています。マイクロアーキテクチャからメモリー、クロック周波数、I/Oに至るまで、すべてがギガワット規模以上のパフォーマンス向上につながっています。1
性能
最新のArmアーキテクチャは、数十年にわたるレガシーシステムの複雑さに縛られることなく、より効率的な命令実行を実現します。このメモリーシステムは、コアあたりの高帯域幅と最小限のレイテンシーを実現し、メモリーがパフォーマンスを低下させないよう確約しています。
規模
コアあたりのTDPが低く抑えられているため、より高密度な展開が可能になり、サーマルスロットリングが軽減されます。各コアが専用であるため、リソース競合を軽減し、スレッド負荷が高い状況下でもパフォーマンスを維持できます。
効率性
高いラック密度とワットあたりのハイパフォーマンスにより、データセンターのスペースと電力リソースを最大限に活用できます。
Arm AGI CPUを導入した最初のパートナー企業
OpenAI、SK Telecom、SAP、Cloudflare、F5、Cerebrasといった企業が、AIデータセンターでArm AGI CPUサーバーをどのように活用しているかをご覧ください。
Arm AGI CPUサーバーは現在入手可能
Arm AGI CPU 1OUデュアルノードリファレンスサーバー
最大密度のArm AGI CPU展開のためのリファレンスデザイン - OCP DC-MHS標準規格フォームファクタ1OUデュアルノードサーバーです。
Arm AGI CPU 2U2Pリファレンスサーバー
従来型のフォームファクタでArm AGI CPUを展開するための19インチ2U2Pリファレンスデザインです。
Lenovo HR650a V3 2U Arm AGI CPUシステム
信頼性の高いパフォーマンスと低いTCOを実現する、クラウドインフラストラクチャ向けに最適化されたエンタープライズクラスの2U Arm AGIサーバーです。
SuperMicro 5U Arm AGI CPU PCIe GPUシステム
デュアルArm AGI CPUと広範なPCIe GPU拡張機能を組み合わせた、高密度5U AIプラットフォームです。
SuperMicro 2U Hyper Arm AGI CPUハイパーシステム
効率的なクラウドおよびAIインフラストラクチャの展開向けに設計された、コンパクトな2UデュアルソケットArm AGIサーバーです。
ASRock Rack 2OU2N-Armシステム
拡張性と電力効率に優れたクラウド展開を実現する、OCP ORv3規格準拠の高密度デュアルノードArmサーバーです。
Arm AGI CPUの仕様および製品概要
AI Summary
| Arm AGI CPU 136C (最大コア数) |
Arm AGI CPU 128C (TCO最適化) |
Arm AGI CPU 64C (最大メモリー/コア) |
|
|---|---|---|---|
|
SKU |
|
|
|
|
処理コア |
|
|
|
|
CPUアーキテクチャ |
|
|
|
|
システムレベルキャッシュ |
|
|
|
|
最大周波数 |
|
|
|
|
ベースTDP* |
|
|
|
|
RDIMMメモリー |
|
|
|
|
コアあたりのメモリスループット |
|
|
|
|
PCIe/IO |
|
|
|
|
PCIe制御レーン数 |
|
|
|
|
2ソケット対応 |
|
|
|
|
2 DIMM/チャンネル |
|
|
|
*既定のTDP範囲内におけるプリセットTDP値を示します
次なるAI時代推進
主なポイント
主なポイント
-
エージェント型AI向けに専用設計されたArm AGI CPU:Arm初の量産シリコンであり、CPUが分散インフラ全体で数千の並列タスクをオーケストレーションする継続的かつ大規模なAIシステム向けに設計。
-
ラックスケールの性能と効率:高密度展開において持続的な高性能を提供し、x86システムと比較してラックあたり2倍以上の性能を実現。
-
高性能コアとメモリアーキテクチャ:最大136のNeoverse V3コアを搭載し、コアあたり最大6GB/sのメモリ帯域幅と100ns未満のレイテンシを実現。
-
AIデータセンター効率のための設計:300W TDPで動作し、計算密度、メモリスループット、システム全体の効率のバランスを実現。
よくある質問
Q:Arm AGI CPUは従来のデータセンターCPUと何が違いますか?
A:Arm AGI CPUはArm初の量産シリコンであり、エージェント型AIワークロード向けに特化して設計されています。高性能、スケーラブルな並列処理、エネルギー効率の高い動作を提供し、大規模な継続的AIワークロードを効率的に実行できます。
Q:Arm AGI CPUの主な特長は何ですか?
A:Arm AGI CPUは、高コア密度、最適化されたメモリアーキテクチャ、スケーラブルなシステム設計を組み合わせています:
- 効率的なコア:最大136のArm Neoverse V3コア、各コア専用の2MB L2キャッシュ、最大3.7GHzのブースト周波数により高応答かつ並列性能を実現。
- 性能と効率:TSMC 3nmプロセス上で高いIPC性能を発揮し、300W TDPで性能と電力効率を両立。
- 最適化されたメモリ:DDR5-8800対応、コアあたり6GB/s帯域幅と100ns未満の低レイテンシでデータボトルネックを低減。
- 高密度設計:1Uサーバーあたり最大272コアのリファレンス設計など、高密度構成をサポート。
- ラックスケール展開:ラックあたり数千コアの構成が可能で、大規模AI処理に対応。
- 柔軟なI/O:96レーンのPCIe Gen6、CXL 3.0、AMBA CHIによりアクセラレータ接続とメモリ拡張に対応。
Q:エージェント型AIとは何ですか?なぜ新しいCPUが必要ですか?
A:エージェント型AIは、リアルタイムで意思決定しながら継続的に動作するシステムです。このため、大規模な分散システムを効率的に制御できるCPUが必要です。
Q:Arm AGI CPUはデータセンター性能をどのように向上させますか?
A:タスクあたりの効率を高め、ラック内で数千コアにスケールすることで、システムあたりの処理量を増加させ、x86比で2倍以上の性能を実現します。
Q:Arm AGI CPUはどのようにAIインフラを支えますか?
A:分散ワークロードの管理、アクセラレータの連携、データ移動の最適化により、大規模AI運用を支援します。
Q:Arm AGI CPUはArmエコシステムにどのように適合しますか?
A:Armのコンピュートプラットフォームを量産シリコンへ拡張し、IP、サブシステム、完成CPUとして柔軟な導入を可能にします。
推定値に基づく。