從落地部署到開放標準:Arm推進代理式AI時代基礎設施演進
通過與 Meta 協作、在 Verda 上部署、以及對 OCP 貢獻創新等一系列舉措,Arm AGI CPU 基礎設施正實現規模化落地

隨著人工智能 (AI) 系統從單純運行模型逐步演進為編排自主的代理式工作流,基礎設施的需求正在發生根本性變革。工作負載不再局限于孤立的推理任務,而是由模型、工具和服務之間的成千上萬次協同交互構成。在這一全新環境中,CPU 正成為 AI 的控制中樞——負責統籌全棧的編排調度、數據流轉與系統行為調度。
為滿足這些新興需求,Arm 近期推出了Arm AGI CPU——一款專為下一代 AI 基礎設施量身打造的處理器。Arm AGI CPU 主打高核心擴展性、高內存帶寬與系統級能效,可統籌協調 CPU、GPU 及其他加速器之間的復雜交互,并針對大規模部署場景下的性能、一致性與互操作性進行了優化。
在四月底的 2026 年 OCP EMEA 峰會上,Arm 正式宣布:歐洲云服務提供商 Verda 將在其下一代基礎設施中部署 Arm AGI CPU,用于代理式 AI 的編排調度;并將其與基于 NVIDIA GB300 的系統,以及即將面世的基于 NVIDIA Vera Rubin 的系統協同運行。此次落地部署印證了行業正朝著 CPU 與加速器深度融合架構的方向演進,CPU 在此類架構中承擔著核心作用,支撐可擴展、高能效 AI 系統落地。
與此同時,Arm 正通過向開放計算項目 (Open Compute Project, OCP) 持續貢獻一系列技術成果,進一步踐行其對開放、標準化基礎設施的長期承諾。這些實際落地部署與開放生態協作的雙重推進,既清晰展現了 AI 基礎設施的演進趨勢,也體現了 Arm 正為這一全新階段定義核心算力底座。
攜手 Meta規模化落地代理式 AI
Arm 在 AGI CPU 方面的工作,正與引領 AI 基礎設施未來發展的頭部超大規模云服務提供商緊密協作,其中包括主要合作伙伴及客戶 Meta。此次合作體現了雙方在構建可擴展、開放平臺方面的共同愿景,以應對日益復雜的 AI 工作負載需求。
AI 系統面臨的挑戰不止于算力性能本身。系統整體效率與互操作性同樣是實現工作負載規模化的關鍵。Arm 與 Meta 正攜手推進基于 Arm AGI CPU 打造的新一代基礎設施建設,以滿足上述需求,從而實現代理式 AI 更高效的任務編排與落地部署。

Arm 與 Meta 的合作凸顯了行業整體發展趨勢:隨著超大規模云服務提供商邁向高度集成的系統架構,CPU 在 AI 工作流管理中扮演核心角色。雙方基于開放架構與系統級設計展開協作,正攜手為下一代 AI 基礎設施筑牢核心根基。
Verda 部署:AI 基礎設施的實踐落地
乘著行業發展勢頭,Verda 對 Arm AGI CPU 的部署體現了下一代 AI 系統的構建方式。通過將基于 Arm CPU 的基礎設施與 NVIDIA GB300 GPU 平臺相結合,Verda 正在打造一種緊密耦合的架構,以支持代理式 AI 工作負載的規模化運行。
在該架構模式中,加速器負責提供模型執行所需的性能,CPU 則負責工作流編排、數據流轉管理及跨組件的系統行為協調。這種算力均衡架構對基于代理式 AI 系統至關重要,因為其性能不僅取決于計算吞吐能力,更依賴全棧層面的高效協同。
Verda 的此次落地應用,反映出行業正朝著面向 AI 優化的集成式異構系統演進,CPU 在其中正扮演核心且具有戰略意義的角色。
代理式 AI 重新定義基礎設施
傳統的 AI流程相對線性:數據輸入,推理輸出。而代理式系統則與之不同,它們可自主規劃、推理并執行操作,往往通過跨越多個模型、服務與決策點的持續循環來完成任務。
這一轉變正推動基礎設施需求發生跨越式升級。加速器仍然負責執行模型工作負載并生成詞元 (token),而 CPU 則正日益承擔起全系統層面的統籌協調職責。因此,CPU 的需求不僅在規模上持續增長,其重要性也在不斷提升。
隨著這類系統持續擴展,硬件平臺與系統管理的一致性變得至關重要。服務器基礎系統架構 (SBSA)、服務器基礎可管理性規范 (SBMR) 等標準化架構,能夠確保復雜的多智能體工作負載在多元環境中穩定運行,無需開展定制化集成。
依托開放標準,實現 AI 基礎設施規模化擴展
隨著 AI 系統復雜度不斷提升,實現高效規模化擴展,不僅需要芯片技術革新,更需要生態在硬件、固件、系統設計與部署模式等層面實現協同統一。
Arm 正持續貢獻多項標準規范,助力 OCP 達成生態協同,并降低合作伙伴構建Arm 架構 AI 基礎設施的門檻。這些貢獻覆蓋三大核心領域:首日部署就緒、參考設計加速方案落地、打造開放的芯粒生態。
首日部署就緒
規模化基礎設施的落地部署,需要從起步階段就具備高穩定性與高可靠性。Arm 正通過 OCP 持續優化其成熟的系統架構規范,包括 SBSA、SBMR 及 Arm 數據中心架構合規 (ADAC) 框架,為基礎設施的規模化部署提供有力支撐。
上述規范為硬件平臺、系統管理與驗證構建了統一基準,使操作系統與應用程序無需修改即可在各類硬件實現版本上直接運行。配套的診斷、合規測試與系統驗證工具,可進一步幫助合作伙伴加快系統上線速度,同時降低部署后的運維風險。
參考設計加速方案落地
為縮短從芯片研發到部署落地的周期,Arm 正為基于 Arm AGI CPU 的系統提供參考服務器設計。這些設計涵蓋服務器硬件規范與固件開發框架,為合作伙伴提供滿足量產標準的技術基礎。
此類規范在對系統設計核心要素進行標準化的同時,保留了差異化定制的靈活空間,有助于簡化開發流程,助力合作伙伴在各類應用場景中實現更快速、高效的部署。
打造開放的芯粒生態
隨著 AI 基礎設施的持續演進,芯粒化設計已成為實現性能擴展與靈活性提升的關鍵。通過與 OCP及生態合作伙伴共同推進基礎芯粒系統架構 (Foundation Chiplet System Architecture, FCSA) 工作,Arm 正在助力構建更加開放、且具備互操作性的芯粒生態系統。
該方案支持模塊化系統設計,可降低集成復雜度,幫助合作伙伴更高效地開發與部署面向 AI 優化的芯片平臺。
生態發展勢頭
Arm 與 OCP 的合作,是業界協同共建開放、規模化 AI 基礎設施進程中不可或缺的一環。
Meta 軟件工程師 Paul Saab 表示:“隨著 AI 基礎設施持續規模化擴展,全棧標準化對實現系統互操作與運行能效愈發重要。我們與 Arm 的合作,體現了雙方在推動開放平臺方面的共同愿景,以支撐大規模的 AI 工作負載需求。”
OCP 首席執行官 George Tchaparian 指出:“OCP 匯聚全球社群力量,通過開放協作加速技術創新。在芯粒、系統就緒度、參考設計等領域持續輸出規范成果,是推動開放 AI 基礎設施大規模普及的關鍵。”
Verda 創始人兼首席執行官 Ruben Bryon 表示:“Verda 運營著由可再生能源驅動,專為機器學習 (ML) 團隊打造的 AI 云平臺。通過將 Arm AGI CPU 與 NVIDIA GB300 算力集群以及即將上線的 VR200 集群搭配部署,我們力求打造一套從調度編排到推理任務的 Arm 原生全棧技術,為客戶提供代理式 AI 大規模部署所需的算力密度與能效表現。”
奠定 AI 下一階段發展的基石
隨著 AI 基礎設施的持續演進,行業的成敗不僅取決于性能,更取決于能否在日趨復雜的系統環境中實現高效部署、規模化擴展與生態互通。開放標準與生態協作,將是開啟 AI 下一發展階段的關鍵支撐。
Arm 的技術路徑將高性能計算與開放、標準化的系統基礎相結合,確立了 CPU 在 AI 基礎設施中的核心層級地位。依托 Verda 等實際場景部署,以及在 OCP 中持續推進的協作,Arm 正攜手業界合作伙伴,共同構建可規模化、可商用落地的 AI 系統。(作者:Arm 云AI事業部副總裁 Eddie Ramirez)
關注我們


