概要

エージェント型AIシステム時代に向けたコンピューティングのオーケストレーション

AI Summary

AIと汎用コンピューティングは、継続的な推論とエージェント型AIの台頭によって収束しつつあります。モデルが企業やクラウドのワークロード全体で開発から実稼働へ移行するなか、データセンターは、持続的なスループット、効率、ラックレベルのパフォーマンス、およびシステム統合に最適化された、連携のとれた環境として機能する必要があります。Armは、この変化の中心として、エージェント型AIシステムや、クラウドAIおよびエッジデータセンター全体にわたるAIヘッドノードの展開に最適化されたCPUアーキテクチャとコンピューティングプラットフォームを提供します。

性能

システム効率によって支えられるパフォーマンス

エージェント型AIシステムが拡大するなか、全体的なパフォーマンスは、プラットフォームがいかに効率的にエージェントをオーケストレーションし、ラック全体のCPU、ネットワーキング、およびアクセラレーターを調整するかによって決定されます。ラック密度、コンピューティング使用率、総保有コストは、ピークスループットだけではなく、電力効率、メモリー帯域幅、およびシステムレベルの統合によって決定されます。

 

ArmベースのプラットフォームはコンバージドAIデータセンター向けに設計されており、持続的なAIワークロードにおいて、ラックレベルのパフォーマンス向上、エネルギー効率の劇的な改善、そして総保有コストの削減を実現します。

Industry level leading performance

パフォーマンス

ラックあたりの画期的なパフォーマンス。

performance that scales icon

スケール

エージェント型 AI による実行をギガワット規模で実現する設計。

leverage arm everywhere icon

効率

低消費電力で、より高いパフォーマンス密度。

インフラストラクチャ

AIシステムの活用分野

  • Datacenter AI
    データセンターAI
  • Cloud Computing icon
    クラウドコンピューティング
  • Telco and Networking icon
    通信およびネットワーキング
  • HPC icon
    ハイパフォーマンスコンピューティング

スケーラブルなデータセンターAIを支える

AIシステムがデータセンター全体で大規模化するなか、ArmベースのCPUはワークロードのオーケストレーション、アクセラレーターへのデータ供給、そしてラックレベルの電力効率の維持において中心的な役割を果たします。ワット当たりの高いパフォーマンスとスケーラブルなシステム設計により、ArmはAIスループットの向上を可能にしながら、消費電力とインフラストラクチャ全体のコスト削減を実現します。

Datacenter AI

パフォーマンスの向上でクラウドコンピューティングを最大限に活用

AIとクラウドネイティブのワークロードが融合するなか、ArmベースのCPUは、分散クラウド環境全体での拡張に必要なパフォーマンスと効率性を提供します。Arm Neoverseプロセッサは、クラウドワークロード全体にパフォーマンスと効率性を提供し、大規模なクラウドAIサービスを実現します。

Cloud Computing

次世代の通信とネットワーキングの実現

AIシステムの分散化が進むにつれ、ネットワーキングとコントロールプレーンが極めて重要な役割を果たします。Armは、分散型AIワークロードの低レイテンシなデータ移動とシステム調整を支える、クラウドネイティブでソフトウェア定義型のネットワーキングインフラストラクチャを実現します。

Telco and networking

HPCへの道を切り開く

科学研究環境では、シミュレーション、アナリティクス、そしてAI推論の統合がますます進んでいます。Armは、持続的な大規模運用向けに設計された効率的なアーキテクチャと成熟したソフトウェアエコシステムにより、これらのワークロードを支えます。

HPC
コンピューティングプラットフォーム

大規模なAIオーケストレーションを実現するコンピューティングプラットフォーム

AIシステムがオーケストレーションを必要とするなか、CPUは現代のAIデータセンターの制御およびデータ管理エンジンとしての役割を担います。クラウドAI向けのNeoverseコンピューティングプラットフォームは、IP、コンピューティングサブシステム、およびCPUにわたるパートナーの選択肢を維持しながら、ワークロード全体のスケーラブルな調整を可能にします。

パートナー

主要なハイパースケーラーは、Arm上でクラウドAIの未来を築いています

クラウドおよびデータセンターインフラ全体で、NVIDIA、AWS、Google Cloud、Microsoftは、スケーラブルでエネルギー効率に優れた次世代のAIイノベーションを支えるべく、Armベースのプラットフォームを推進しています。

Arm and NVIDIA

NVIDIA Grace Blackwellプラットフォームと次世代Vera Rubin CPUは、ArmベースのCPUによるイノベーションを基盤として構築されています。88個のArmベースのコアを搭載したVeraは、データセンターやハイパフォーマンスコンピューティング環境全体でエージェント型AIと推論を支援するように設計されています。

Arm and AWS

AWSは、Graviton5によりArmベースのポートフォリオを拡張し、前世代と比較して最大25%のパフォーマンス向上と33%のレイテンシ低減を実現します。Graviton CPUは、大規模なAIワークロード向けにスケーラブルでコスト効率の高いインフラストラクチャを提供するように設計された、Trainium3 UltraServerにも採用されています。1

Arm and Google Cloud

Google Cloud AxionベースのC4AおよびN4Aインスタンスは、汎用ワークロードにArmを導入し、N4Aはx86製品と比較して最大2倍の価格性能比と80%高いワット当たりのパフォーマンスを実現します。2

Arm Microsoft

Arm Neoverseを基盤に構築されたMicrosoft Cobalt 100およびCobalt 200プロセッサは、AzureでのArmベースのコンピューティングを拡張し、効率とパフォーマンスの向上により、エンタープライズ、クラウドネイティブ、AI主導のワークロードをサポートします。

ソフトウェア

拡張のために構築されたエコシステム

50,000社を超える企業の2,200万人を超える開発者が、Armベースの環境でソフトウェアを構築し、実行しています。この成熟したエコシステムが、クラウドAIワークロードのより迅速な拡張、より容易な移行、異なる環境間での一貫した運用を可能にしています。

Armクラウド移行プログラム

Armをベースにクラウドネイティブのワークロードを構築・拡張し、パフォーマンス向上、コスト削減、シームレスな移植性を実現します。

Arm開発者

スケーラブルなArmベースのクラウドAIインフラストラクチャをより迅速に革新するために役立つ開発者向けリソースにアクセスできます。

関連情報

最新ニュース・関連情報

  • ニュースとブログ
  • サクセスストーリー
  • eBook
Generic Solutions_Dark Mode

Armテクノロジーを通じてポジティブな変化を促進

ArmのパートナーがどのようにAIを活用して、あらゆる場所で、あらゆる人のために、未来を形づくっているかをご覧ください。

Generic Guides

データセンターAIで競争優位性を獲得

Arm Neoverseは、クラウドでもオンプレミスでも、今日の需要を満たし、明日のイノベーションを推進するために必要なパフォーマンス、効率性、柔軟性を備えたインフラストラクチャを組織が最新化できるようにします。

つながる

サブスクリプションに登録して、最新のニュースやケーススタディ、技術的知見を入手してください。

FAQs

FAQ

コンバージドAIデータセンターとは何ですか?

コンバージドAIデータセンターは、コンピューティング、アクセラレーター、メモリー、ネットワークを統合したシステムで、大規模なAIワークロードの効率的な実行を可能にします。従来のアーキテクチャとは異なり、コンバージェンスはAIを単なる独立したコンポーネントの集合体としてではなく、システムレベルの課題として捉えます。

なぜコンバージドAIデータセンターにおいてCPUが中心的な役割を担うのでしょうか?

アクセラレーターがモデルの計算を主導する一方で、CPUはAIを実世界のサービスへと変えるシステムを支えています。すべてのAIデータセンターは、トレーニング用か推論用かを問わず、アクセラレータの調整、メモリーの管理、前処理と後処理、およびシステム制御の維持のためにCPUベースのヘッドノードに依存しています。

推論がより永続的かつエージェントベースになるにつれて、これらの調整タスクは拡大し続けます。AIシステムは、作業のスケジューリング、状態管理、キーバリューキャッシュやベクトルデータベースのサポート、データおよびサービスとの継続的なやり取りにおいて、CPUへの依存度をますます高めています。このような環境では、効率とコア密度がピークパフォーマンスと同様に重要になります。

ArmはクラウドAIのワットあたりのパフォーマンスをどのように向上させていますか?

Arm CPUは効率性を重視して設計されており、固定の電力と冷却の制限内で、より多くの利用可能なコンピューティング能力を実現します。これにより、クラウドプロバイダーは、エネルギー消費量を比例的に増やすことなく、AI容量をスケーラブルに拡張できます。

クラウドAIにおいて、Armはx86とどう違うのですか?

大規模なクラウドAIの展開において、Armベースのプラットフォームは、ラックレベルの効率を最大化し、総保有コストを抑制するために不可欠なワット当たりのパフォーマンスとコア密度を実現します。持続的な推論、エージェント・オーケストレーション、アクセラレーター間の連携に最適化されたArmは、ハイパースケール環境全体でワークロード密度の向上と低消費電力を実現します。効率性、スケーラビリティ、そしてクラウドネイティブなエコシステムのサポートを兼ね備えたArmは、最新のクラウドAIインフラにおいて、従来のx86プラットフォームよりも優れた選択肢となります。

企業はクラウドAIデータセンターにArmを使用できますか?それともハイパースケーラーのみを対象としていますか?

ハイパースケーラーが導入をリードする一方で、幅広いソフトウェアおよびハードウェアのエコシステムに支えられ、あらゆる規模の企業でArmベースのクラウドAIプラットフォームの利用機会が拡大しています。