概述
Video Thumbnail

將符合企業需求的人工智慧導入符合成本效益的運算

小型語言模型 (SLM) 正為現今的人工智慧掀起革命。專為滿足特定工作、資料及需求打造,並且顯著減少參數量,具備快速、高效率及符合成本效益等特色。可為大型模型提供同等效能,同時大幅降低硬體及營運成本。


Arcee AI 專精於針對符合成本效益的推論最佳化的 SLM,使其成為企業工作流程、邊緣應用及代理人工智慧系統的理想選擇。為了達到最高效率及擴充能力,Arcee AI 可在 Arm 架構 CPU 上執行模型,充分發揮效能、成本效率及擴充性的獨特組合。

影響
silicon chip

無需昂貴的繪圖處理器執行個體。

A minimalistic speedometer with motion lines.

使用量化模型及 Arm Kleidi 加速最高 4 倍。

A simple line drawing of a cloud with sparkles.

可讓多個人工智慧代理程式平行運作。

「我們處於轉捩點,需要執行 SLM 來為企業使用場景提供最佳的 ROI。這表示在 CPU 平台上執行。現今我們顯然應選擇的是,在雲端及雲端以外使用 Arm 平台。」
Arcee AI 首席佈道師 Julien Simon
dimension entrance combine neon-electric mesh network
使用的技術

透過 Arm 最佳化提升最高 4 倍效能

Arcee AI 已對其 Virtuoso Lite 百億參數模型執行基準測試,在 Arm CPU 上從 16 位元轉移至 4 位元量化,同時運用 Arm KleidiAI 技術,提升 3-4 倍的速度。

這帶來顯著的成本效能優勢、降低雲端成本,同時維持模型品質。Arcee 模型不依賴昂貴且日漸稀少的繪圖處理器,而是能在 Arm 架構的雲端執行個體 (包括來自 AWS、Google Cloud 及 Microsoft Azure 的執行個體),以及邊緣裝置及資料中心硬體上高效執行。

A few stack mixed color blocks under AI circus.

使用 Arm 技術實現代理人工智慧的企業

隨著企業越來越渴望可擴充且具成本效益的人工智慧,Arcee AI 位居這項轉型的最前線。想像一下未來,人工智慧不再只是單一的大型模型,而是由多個特定 SLM 組成的系統共同運作。這種方法可驅動代理人工智慧工作流程,讓企業能夠平行部署 10 或 20 個,甚至 30 個模型,以執行客戶支援自動化、詐欺偵測及即時決策等任務。

在 Arm CPU 上執行分散式 SLM,讓企業能夠平行處理大型工作負載,達到最高效率、擴充性及節省成本。Arcee AI 領先業界的模型結合 Arm 架構 CPU,讓企業現今能夠部署高效能 SLM,並且未來將成為首選的代理人工智慧平台。

相關案例

探索類似案例

Stability AI

改變裝置內的音訊人工智慧

Stability 人工智慧與 Arm 合作使用 Arm KleidiAI 改變裝置內的音訊創作方式,將 Arm 行動裝置 CPU 的回應時間從幾分鐘縮短為幾秒。

Meta 人工智慧技術

順暢的人工智慧開發

Meta 提供的開放原始碼架構和模型奠定基礎,在 Arm 架構上大規模革新人工智慧創新的未來發展。

Arm for GitHub Copilot 擴充功能

在 Arm 架構上從事雲端開發

使用人工智慧驅動的開發功能,將複雜流程轉換為由人工智慧引導的直覺體驗。

探索更多成功案例