エージェント型AIシステム時代に向けたコンピューティングのオーケストレーション
AI Summary
AIと汎用コンピューティングは、継続的な推論とエージェント型AIの台頭によって収束しつつあります。モデルが企業やクラウドのワークロード全体で開発から実稼働へ移行するなか、データセンターは、持続的なスループット、効率、ラックレベルのパフォーマンス、およびシステム統合に最適化された、連携のとれた環境として機能する必要があります。Armは、この変化の中心として、エージェント型AIシステムや、クラウドAIおよびエッジデータセンター全体にわたるAIヘッドノードの展開に最適化されたCPUアーキテクチャとコンピューティングプラットフォームを提供します。
システム効率によって支えられるパフォーマンス
エージェント型AIシステムが拡大するなか、全体的なパフォーマンスは、プラットフォームがいかに効率的にエージェントをオーケストレーションし、ラック全体のCPU、ネットワーキング、およびアクセラレーターを調整するかによって決定されます。ラック密度、コンピューティング使用率、総保有コストは、ピークスループットだけではなく、電力効率、メモリー帯域幅、およびシステムレベルの統合によって決定されます。
ArmベースのプラットフォームはコンバージドAIデータセンター向けに設計されており、持続的なAIワークロードにおいて、ラックレベルのパフォーマンス向上、エネルギー効率の劇的な改善、そして総保有コストの削減を実現します。
パフォーマンス
ラックあたりの画期的なパフォーマンス。
スケール
エージェント型 AI による実行をギガワット規模で実現する設計。
効率
低消費電力で、より高いパフォーマンス密度。
AIシステムの活用分野
-
データセンターAI
-
クラウドコンピューティング
-
通信およびネットワーキング
-
ハイパフォーマンスコンピューティング
スケーラブルなデータセンターAIを支える
AIシステムがデータセンター全体で大規模化するなか、ArmベースのCPUはワークロードのオーケストレーション、アクセラレーターへのデータ供給、そしてラックレベルの電力効率の維持において中心的な役割を果たします。ワット当たりの高いパフォーマンスとスケーラブルなシステム設計により、ArmはAIスループットの向上を可能にしながら、消費電力とインフラストラクチャ全体のコスト削減を実現します。
パフォーマンスの向上でクラウドコンピューティングを最大限に活用
AIとクラウドネイティブのワークロードが融合するなか、ArmベースのCPUは、分散クラウド環境全体での拡張に必要なパフォーマンスと効率性を提供します。Arm Neoverseプロセッサは、クラウドワークロード全体にパフォーマンスと効率性を提供し、大規模なクラウドAIサービスを実現します。
次世代の通信とネットワーキングの実現
AIシステムの分散化が進むにつれ、ネットワーキングとコントロールプレーンが極めて重要な役割を果たします。Armは、分散型AIワークロードの低レイテンシなデータ移動とシステム調整を支える、クラウドネイティブでソフトウェア定義型のネットワーキングインフラストラクチャを実現します。
HPCへの道を切り開く
科学研究環境では、シミュレーション、アナリティクス、そしてAI推論の統合がますます進んでいます。Armは、持続的な大規模運用向けに設計された効率的なアーキテクチャと成熟したソフトウェアエコシステムにより、これらのワークロードを支えます。
大規模なAIオーケストレーションを実現するコンピューティングプラットフォーム
AIシステムがオーケストレーションを必要とするなか、CPUは現代のAIデータセンターの制御およびデータ管理エンジンとしての役割を担います。クラウドAI向けのNeoverseコンピューティングプラットフォームは、IP、コンピューティングサブシステム、およびCPUにわたるパートナーの選択肢を維持しながら、ワークロード全体のスケーラブルな調整を可能にします。
Arm AGI CPU
Arm 初の量産シリコンは、大規模なエージェント型 AI 運用に求められる極めて高いラックレベルの密度とパフォーマンスのために設計された、新しいクラスの CPU を提供します。
Arm Neoverse CSS V3
Arm Neoverse CSS V3は、コストとリスクを削減し、市場投入までの時間を短縮しながら、クラウドCPUとカスタムAIアクセラレータの開発を加速させる、高性能でカスタマイズ可能なNeoverse V3サブシステムを提供します。
Arm Neoverse CSS N2
Arm Neoverse CSS N2は、Neoverse N2コアとArmシステムIPを組み合わせた、電力効率のよい事前統合型コンピューティングサブシステムで、パートナーがクラウドやインフラストラクチャシリコンをより迅速に市場に投入できるようにします。
主要なハイパースケーラーは、Arm上でクラウドAIの未来を築いています
クラウドおよびデータセンターインフラ全体で、NVIDIA、AWS、Google Cloud、Microsoftは、スケーラブルでエネルギー効率に優れた次世代のAIイノベーションを支えるべく、Armベースのプラットフォームを推進しています。
NVIDIA Grace Blackwellプラットフォームと次世代Vera Rubin CPUは、ArmベースのCPUによるイノベーションを基盤として構築されています。88個のArmベースのコアを搭載したVeraは、データセンターやハイパフォーマンスコンピューティング環境全体でエージェント型AIと推論を支援するように設計されています。
拡張のために構築されたエコシステム
50,000社を超える企業の2,200万人を超える開発者が、Armベースの環境でソフトウェアを構築し、実行しています。この成熟したエコシステムが、クラウドAIワークロードのより迅速な拡張、より容易な移行、異なる環境間での一貫した運用を可能にしています。
最新ニュース・関連情報
- ニュースとブログ
- サクセスストーリー
- eBook
Armテクノロジーを通じてポジティブな変化を促進
ArmのパートナーがどのようにAIを活用して、あらゆる場所で、あらゆる人のために、未来を形づくっているかをご覧ください。
データセンターAIで競争優位性を獲得
Arm Neoverseは、クラウドでもオンプレミスでも、今日の需要を満たし、明日のイノベーションを推進するために必要なパフォーマンス、効率性、柔軟性を備えたインフラストラクチャを組織が最新化できるようにします。
つながる
サブスクリプションに登録して、最新のニュースやケーススタディ、技術的知見を入手してください。
FAQ
コンバージドAIデータセンターとは何ですか?
コンバージドAIデータセンターは、コンピューティング、アクセラレーター、メモリー、ネットワークを統合したシステムで、大規模なAIワークロードの効率的な実行を可能にします。従来のアーキテクチャとは異なり、コンバージェンスはAIを単なる独立したコンポーネントの集合体としてではなく、システムレベルの課題として捉えます。
なぜコンバージドAIデータセンターにおいてCPUが中心的な役割を担うのでしょうか?
アクセラレーターがモデルの計算を主導する一方で、CPUはAIを実世界のサービスへと変えるシステムを支えています。すべてのAIデータセンターは、トレーニング用か推論用かを問わず、アクセラレータの調整、メモリーの管理、前処理と後処理、およびシステム制御の維持のためにCPUベースのヘッドノードに依存しています。
推論がより永続的かつエージェントベースになるにつれて、これらの調整タスクは拡大し続けます。AIシステムは、作業のスケジューリング、状態管理、キーバリューキャッシュやベクトルデータベースのサポート、データおよびサービスとの継続的なやり取りにおいて、CPUへの依存度をますます高めています。このような環境では、効率とコア密度がピークパフォーマンスと同様に重要になります。
ArmはクラウドAIのワットあたりのパフォーマンスをどのように向上させていますか?
Arm CPUは効率性を重視して設計されており、固定の電力と冷却の制限内で、より多くの利用可能なコンピューティング能力を実現します。これにより、クラウドプロバイダーは、エネルギー消費量を比例的に増やすことなく、AI容量をスケーラブルに拡張できます。
クラウドAIにおいて、Armはx86とどう違うのですか?
大規模なクラウドAIの展開において、Armベースのプラットフォームは、ラックレベルの効率を最大化し、総保有コストを抑制するために不可欠なワット当たりのパフォーマンスとコア密度を実現します。持続的な推論、エージェント・オーケストレーション、アクセラレーター間の連携に最適化されたArmは、ハイパースケール環境全体でワークロード密度の向上と低消費電力を実現します。効率性、スケーラビリティ、そしてクラウドネイティブなエコシステムのサポートを兼ね備えたArmは、最新のクラウドAIインフラにおいて、従来のx86プラットフォームよりも優れた選択肢となります。
企業はクラウドAIデータセンターにArmを使用できますか?それともハイパースケーラーのみを対象としていますか?
ハイパースケーラーが導入をリードする一方で、幅広いソフトウェアおよびハードウェアのエコシステムに支えられ、あらゆる規模の企業でArmベースのクラウドAIプラットフォームの利用機会が拡大しています。