
將符合企業需求的人工智慧導入符合成本效益的運算@primaryHeadingTag>
小型語言模型 (SLM) 正為現今的人工智慧掀起革命。專為滿足特定工作、資料及需求打造,並且顯著減少參數量,具備快速、高效率及符合成本效益等特色。可為大型模型提供同等效能,同時大幅降低硬體及營運成本。
Arcee AI 專精於針對符合成本效益的推論最佳化的 SLM,使其成為企業工作流程、邊緣應用及代理人工智慧系統的理想選擇。為了達到最高效率及擴充能力,Arcee AI 可在 Arm 架構 CPU 上執行模型,充分發揮效能、成本效率及擴充性的獨特組合。
小型語言模型 (SLM) 正為現今的人工智慧掀起革命。專為滿足特定工作、資料及需求打造,並且顯著減少參數量,具備快速、高效率及符合成本效益等特色。可為大型模型提供同等效能,同時大幅降低硬體及營運成本。
Arcee AI 專精於針對符合成本效益的推論最佳化的 SLM,使其成為企業工作流程、邊緣應用及代理人工智慧系統的理想選擇。為了達到最高效率及擴充能力,Arcee AI 可在 Arm 架構 CPU 上執行模型,充分發揮效能、成本效率及擴充性的獨特組合。
無需昂貴的繪圖處理器執行個體。
使用量化模型及 Arm Kleidi 加速最高 4 倍。
可讓多個人工智慧代理程式平行運作。
透過 Arm 最佳化提升最高 4 倍效能
Arcee AI 已對其 Virtuoso Lite 百億參數模型執行基準測試,在 Arm CPU 上從 16 位元轉移至 4 位元量化,同時運用 Arm KleidiAI 技術,提升 3-4 倍的速度。
這帶來顯著的成本效能優勢、降低雲端成本,同時維持模型品質。Arcee 模型不依賴昂貴且日漸稀少的繪圖處理器,而是能在 Arm 架構的雲端執行個體 (包括來自 AWS、Google Cloud 及 Microsoft Azure 的執行個體),以及邊緣裝置及資料中心硬體上高效執行。
使用 Arm 技術實現代理人工智慧的企業
隨著企業越來越渴望可擴充且具成本效益的人工智慧,Arcee AI 位居這項轉型的最前線。想像一下未來,人工智慧不再只是單一的大型模型,而是由多個特定 SLM 組成的系統共同運作。這種方法可驅動代理人工智慧工作流程,讓企業能夠平行部署 10 或 20 個,甚至 30 個模型,以執行客戶支援自動化、詐欺偵測及即時決策等任務。
在 Arm CPU 上執行分散式 SLM,讓企業能夠平行處理大型工作負載,達到最高效率、擴充性及節省成本。Arcee AI 領先業界的模型結合 Arm 架構 CPU,讓企業現今能夠部署高效能 SLM,並且未來將成為首選的代理人工智慧平台。