概要

エンタープライズ対応のAIをコスト効率の高いコンピューティングに導入

小規模言語モデル(SLM)は今日のAIに革命をもたらしています。これらは、特定のタスク、データ、要件に合わせて特別に構築されており、パラメータが大幅に少なく、高速かつ効率的で、コスト効率に優れています。ハードウェアと運用コストを大幅に削減しながら、より大規模なモデルに匹敵するパフォーマンスを実現します。


Arcee AIは、コスト効率の高い推論に最適化されたSLMを専門としており、エンタープライズワークフロー、エッジアプリケーション、エージェント型AIシステムに最適です。Arcee AIは、効率性とスケーラビリティを最大限に高めるために、パフォーマンス、コスト効率、スケーラビリティの独自の組み合わせを活用して、Arcee AIのモデルをArmベースのCPU上で実行できます。

インパクト
silicon chip

高価なGPUインスタンスは必要ありません。

A minimalistic speedometer with motion lines.

量子化モデルとArm Kleidiを使用すると最大4倍の加速が得られます。

A simple line drawing of a cloud with sparkles.

複数のAIエージェントが並行して動作できるようにします。

「私たちは、エンタープライズユースケースで最高のROIを実現するためにSLMを実行する必要がある転換点に立っています。つまり、CPUプラットフォーム上で実行することになります。現在、私たちにとっての明白な選択肢は、クラウド内外でArmプラットフォームを使用することです」
Arcee AI、チーフエバンジェリスト、Julien Simon氏
dimension entrance combine neon-electric mesh network
使用されているテクノロジー

Armの最適化により最大4倍のパフォーマンス向上を実現

Arcee AIは、Virtuoso Lite 100億パラメータモデルのベンチマークを実施し、Arm KleidiAIテクノロジーを活用しながらArm CPU上で16ビットから4ビットの量子化に移行することで3~4倍の高速化を実証しました。

これにより、コストパフォーマンスの大きな利点が得られ、モデルの品質を維持しながらクラウド費用が削減されます。Arceeのモデルは、高価でますます不足しているGPUに頼るのではなく、AWS、Google Cloud、Microsoft AzureなどのArmベースのクラウドインスタンス、エッジデバイス、データセンターハードウェアで効率的に実行されます。

A few stack mixed color blocks under AI circus.

エージェント型AIにArmを活用する企業

企業がスケーラブルでコスト効率の高いAIを求めるようになるにつれ、Arcee AIはこの変革の最前線に立っています。AIが単一の大きなモデルではなく、複数の特殊なSLMが連携して動作するシステムである未来を想像してみてください。このアプローチはエージェント型AIワークフローを強化し、企業が顧客サポートの自動化、不正検出、リアルタイムの意思決定などのタスクに10、20、または30のモデルを並行して展開できるようにします。

Arm CPU上で分散SLMを実行することで、企業は大規模なワークロードを並列処理し、効率、スケーラビリティ、コスト削減を最大限に高めることができます。Arcee AIの業界をリードするモデルとArmベースのCPUを組み合わせることで、企業は今日でも高性能なSLMを導入でき、将来的にはエージェント型AIプラットフォームとして選ばれることになります。

関連ストーリー

類似のストーリーを探す

Stability AI

オンデバイスオーディオAIの変革

Stability AIはArmと提携し、Arm KleidiAIを使用してデバイス上のオーディオ作成を変革し、ArmモバイルCPUでの応答時間を数分から数秒に短縮しました。

Meta AIテクノロジー

シームレスなAI開発

Metaのオープンソースフレームワークとモデルが、Armで大規模にAIイノベーションの未来に革命をもたらす道を切り拓きます。

Arm for GitHub Copilot拡張機能

Armでクラウド開発を可能に

AI搭載の開発機能で、複雑なプロセスを直感的なAIによるガイド付きの体験へと変えます。

他のサクセスストーリーを見る