Arm、未来のAIの基盤構築に向けて、業界リーダー各社と協業
英Arm(本社:英国ケンブリッジ、日本法人:神奈川県横浜市、以下Arm)はこのたび、人工知能(AI)のイノベーション促進とAIベースの体験の実現に向けた、新たな複数の戦略的パートナーシップを発表しました。自社の技術プラットフォームによるAI開発に加えて、AMD、Intel、Meta、Microsoft、NVIDIA、Qualcomm Technologies, Inc.など大手テクノロジー企業各社と協力し、応答性とセキュリティに優れたユーザー体験を実現するため、幅広いイニシアチブを通じて高度なAI機能の実現に取り組んでいます。各社とのパートナーシップを通じて、1,500万人ものArm開発者がコンピューティングのあらゆる場面で次世代のAI体験を提供するために必要な、基盤となるフレームワーク、テクノロジー、仕様を開発していきます。
Armのエグゼクティブ・バイスプレジデント兼チーフアーキテクト&フェローであるリチャード・グリセンスウェイト(Richard Grisenthwaite)は、次のように述べています。「AIの普及には、ハードウェアとソフトウェアのイノベーションを連動させ続けることが必要です。両者の組み合わせにより、エッジ側でワークロードを実行する最小規模のセンサーから、複雑なワークロードを処理し、大規模言語モデルをトレーニングする最大規模のサーバーまで、あらゆる技術タッチポイントでAI機能が向上します。エコシステムがAIの真の可能性を引き出すために取り組む中、セキュリティ、持続可能性、データの上限が今後の課題となることは明らかです。そのため、エッジでの推論を含め大規模なAIを実現できるよう、業界全体でのコラボレーションを模索し続けることが不可欠です」
エッジ側でのAIを加速
生成AIと大規模言語モデル(LLM)が昨今、大きな注目を集める一方、Armはエッジ側でのAIの提供において長年にわたり最前線に立ち続けており、スマートフォン分野では、サードパーティのAIアプリケーションの70%がArm CPUで実行されています。しかし、持続可能な方法でAIを提供し、データを効率的に移動させる方法を模索する中、業界全体としては、AI/機械学習(ML)モデルをエッジで実行するよう進化する必要があり、開発者にとっては、演算リソースがますます限られていくことが課題となっています。
ArmはNVIDIAと協力し、パフォーマンスを最適化したビジョンAIモデルの作成を支援する、Ethos-U NPU向けのローコード・オープンソースAIツールキットであるNVIDIA TAOの調整を進めています。NVIDIA TAOは、無料の主要オープンソースAI/MLフレームワークであるTensorFlowとPyTorch上に構築するための使いやすいインタフェースを提供します。開発者にとっては、モデルの開発およびデプロイが簡単かつシームレスに行えるだけでなく、より複雑なAIワークロードをエッジデバイス側に移行することで、AIベースの体験を向上させることができます。
あらゆるデバイスと市場を対象にニューラルネットワークを進化
エッジ側でのニューラルネットワークのデプロイを進化させることは、AIの継続的な成長に欠かせない要素です。そこでArmとMetaは、ExecuTorchによって、PyTorchをArmベースのエッジ向けモバイル/組み込みプラットフォームに導入することに取り組んでいます。ExecuTorchを用いることで開発者は、モバイルデバイスとエッジデバイス向けの高度なAI/MLワークロードに要求される、最先端のニューラルネットワークをより簡単にデプロイできます。今後、ArmとMetaのコラボレーションを通じて、PyTorchとExecuTorchでのAI/MLモデルの開発・デプロイを容易に行えるようになります。
ArmはすでにTensor Operator Set Architecture(TOSA)への大規模な投資を行っており、今回のMetaとの協力もこれが基盤となっています。TOSAは、AI/MLアクセラレーター向けの共通のフレームワークとして、ディープニューラルネットワークが採用する幅広いワークロードをサポートします。Armアーキテクチャをベースに構築される多様なプロセッサーと数十億個のデバイスにおけるAI/MLの基礎となるものです。
業界全体のスケーラブルなAI
幅広いデータ形式のデプロイをサポートすることは、AIを比較的低コストで拡張させるために不可欠な要素です。Armは、AIワークロードに特化した、新たなスモールデータタイプを幅広くサポートするために尽力しています。
昨年には、Arm、Intel、NVIDIAの共同コラボレーションとして、最新の8ビット浮動小数点仕様「FP8」を発表しました。その後、この形式はさらなる支持を獲得し、構成企業はAMD、Arm、Google、Intel、Meta、NVIDIAへと拡大し、公式のOCP 8ビット浮動小数点仕様(OFP8)を共同策定しました。ArmはAプロファイル・アーキテクチャの最新アップデートで本規格に準拠したOFP8を追加しており、業界全体でのニューラルネットワークへの迅速な採用をサポートしています。交換8ビットデータ形式のOFP8により、ソフトウェア・エコシステムはニューラルネットワークのモデルを容易に共有し、何十億個ものデバイスを対象に、AIコンピューティング機能の継続的な進化を促進することができます。
オープンスタンダードは、AIエコシステムでイノベーション、一貫性、相互運用性を推進する上で不可欠な要素です。こうした規格に対する業界全体の取り組みをサポートし続けるため、Armは最近、AMD、Arm、Intel、Meta、Microsoft、NVIDIA、Qualcomm Technologies, Inc.で構成されるMX Allianceに参加しました。MX Allianceは最近、マイクロスケーリングとして知られる新技術の仕様策定に共同で取り組みました。これは、長年にわたる設計分野の探求・研究が基礎となっており、狭ビット(8ビットおよびサブ8ビット)によるAIアプリケーションのトレーニング・推論向けのきめ細かなスケーリング手法です。この仕様は、こうした狭ビットのデータ形式を標準化することで、業界全体の断片化を解消し、スケーラブルなAIを実現します。
コラボレーションの精神に基づき、MX Allianceでは、このMX仕様をOpen Compute Projectを通じてオープンなライセンスフリー形式で公開しました。Open Compute Projectは、ハイパースケールのデータセンター事業者やコンピューティングインフラストラクチャ分野の各社で構成されており、業界での幅広い採用を促進しています。スケーラブルなAIソリューションへの公平なアクセスをエコシステム全体で提供する必要性への認識から、こうした取り組みが行われています。
前例のないAIイノベーション
Armはすでに、今日の世界におけるAIデプロイの基盤を提供しています。高度で複雑なAIワークロードを開発者が作成できるよう、Armは必要となる各種テクノロジーを提供しており、上述のコラボレーションも、こうした取り組みの一例に過ぎません。センサーからスマートフォン、ソフトウェア定義型自動車、サーバー、スーパーコンピュータまで、さまざまな分野でArmはAIの未来を支えていきます。
Armについて
Armは、業界最高の性能と電力効率に優れたコンピューティング・プラットフォームであり、コネクテッドな世界における人口の100%に貢献する比類のないスケールを備えています。Armは、演算に対する飽くなき需要に応えるため、世界をリードするテクノロジー企業に先進的なソリューションを提供し、各社がAIによるかつてない体験や能力を解き放つことができるよう支援しています。世界最大のコンピューティング・エコシステムと2,000万人のソフトウェア開発者とともに、私たちはArm上で築くAIの未来を形作っていきます。
全ての情報は現状のまま提供されており、内容について表明および保証を行うものではありません。本資料は、内容を改変せず、出典を明記した上で自由に共有いただけます。ArmはArm Limited(またはその子会社や関連会社)の登録商標です。その他のブランドあるいは製品名は全て、それぞれの権利者の所有物です。©1995-2024 Arm Limited.