今日 (3/24),晶片設計巨擘Arm正式打破三十多年來的傳統模式,首度發表其親自操刀設計並投入量產的實體矽晶片產品「Arm AGI CPU」。這款專為AI資料中心打造的處理器,劍指快速崛起的「代理式AI」基礎設施龐大需求,並由科技巨頭Meta作為首發共同開發夥伴,標榜憑藉台積電3nm製程,能提供比傳統x86平台高出兩倍以上的機架運算效能,為AI時代的運算佈局投下震撼彈。
打破傳統:Arm為何親自下場打造晶片?
長久以來,Arm的核心商業模式專注於提供IP矽智財與運算子系統(CSS)授權,將晶片製造交由合作夥伴。然而,面對「代理式AI」帶來的運算典範轉移,Arm執行長Rene Haas去年已證實將推出自有品牌晶片,並於此次活動上正式揭曉,此舉象徵著公司策略的重大轉變。
Rene Haas在聲明中明確指出,人工智慧已徹底重新定義運算的建構與佈署方式。過去的AI基礎設施多集中於GPU的「模型訓練」環節;然而,隨著AI應用逐漸轉向佈署持續運行的「AI代理」(AI Agents),這些系統需要不斷地執行推理、規劃、協調與資料搬移等任務,導致AI系統生成的Token數量呈指數級增長。這就好比從僅訓練大腦,轉變為讓大腦時刻進行複雜的思考與決策,對底層運算能力提出全新挑戰。
Arm執行長Rene Haas表示:「AI已經徹底重新定義運算的建構與佈署方式。過去的AI基礎設施高度集中在GPU的『模型訓練』上;但隨著AI應用轉向佈署持續運行的『AI代理』時,這些系統需要不斷地進行推理、規劃、協調與資料搬移,導致AI系統生成的Token數量呈指數級增長。」
根據業界預估,當企業大規模導入代理驅動的應用時,每吉瓦(GW)電力所需的CPU數量將暴增超過4倍。在嚴苛的功耗限制下,傳統x86處理器複雜的架構與高能耗已難以負荷。因此,為協助合作夥伴加速佈署AI代理,Arm決定打破僅提供IP或CSS的「慣例」,直接推出自有品牌實體晶片,為市場提供更具彈性且直接的硬體選擇,以在代理式AI趨勢中佈局更廣泛的運算市場。
效能革新:Arm AGI CPU的技術亮點與市場衝擊
作為Arm首發之作,Arm AGI CPU在硬體規格與能效表現上展現極強的企圖心,旨在直接挑戰資料中心現有的運算格局。這款晶片由台積電以其先進的3nm製程代工製造,確保了其在功耗與效能上的領先地位。
Arm AGI CPU的設計亮點包括:
- 頂尖核心與頻寬:單顆CPU搭載高達136個Arm Neoverse V3核心,提供每核心6GB/s的記憶體頻寬與低於100ns的延遲表現。
- 極致能效(TDP):功耗控制在300瓦(TDP),同時每個程式執行緒均配置專屬核心,確保在持續高負載下提供決定性的效能,有效消除降頻與閒置執行的浪費。
- 超高機架密度:支援高密度1U伺服器機架。在氣冷佈署模式下,每組機架可容納高達8160個CPU核心;若採用液冷系統設計,則能推升至每機架對應超過45000個CPU核心。
Arm強調,AGI CPU每機架效能是傳統x86架構CPU的2倍以上。這不僅意味著在相同電力與空間限制下,AI資料中心能獲得顯著的運算能力提升,更預示著在每吉瓦的AI資料中心建置中,將能為企業省下高達100億美元的資本支出,對企業的成本效益產生深遠影響。
產業結盟:Meta領銜眾多巨頭力挺Arm新戰略
Arm此次親自投入晶片製造,並未引發原有IP客戶的強烈反彈,反而獲得業界廣泛支持。其中,Meta更成為該晶片的首發合作夥伴與共同開發者,展現了對Arm新戰略的高度認可。
Meta基礎設施主管Santosh Janardhan表示,Meta將利用Arm AGI CPU來優化其應用程式家族的基礎設施,並將其與Meta自研的AI加速晶片「MTIA」協同運作。此舉旨在實現大規模AI系統中更有效率的運算調度,而雙方也承諾將在未來多個世代的產品路線圖中持續深入合作。
除了Meta,包含OpenAI、Cerebras、Cloudflare、SAP與SK Telecom在內的多家企業,均已確認將導入此款晶片,用於加速器管理、控制平面處理,以及雲端API託管等核心任務。在硬體系統端,Arm已與華擎(ASRock Rack)、聯想(Lenovo)、廣達(Quanta Computer)及Supermicro等OEM及ODM廠展開合作,預計今年下半年將有更多系統投入市場。此外,AWS、Google、微軟、NVIDIA(執行長黃仁勳亦對此發表祝賀),以及三星、SK海力士(SK hynix)等超過50家科技巨頭,也都對Arm擴展至晶片產品線表達大力支持。
展望與影響:代理式AI浪潮下的運算典範轉移
外界最初擔憂Arm自行銷售晶片可能與AWS、Google或微軟等已利用Arm架構自行開發CPU的大客戶產生利益衝突。然而,從結果來看,Arm將AGI CPU的定位精準切入「代理式AI」這個新興且需求孔急的特殊領域。對於像Meta或OpenAI這樣需要海量CPU來搭配自家AI加速器,卻不見得想投入龐大資源從零設計通用CPU的廠商而言,直接採購現成、已將Neoverse V3效能榨到極限的Arm AGI CPU,無疑是最具成本效益的務實做法。
同時,這也是Arm針對x86陣營(Intel與AMD)在資料中心領域發起的一場「絕殺」。當僅有300瓦熱設計功耗的Arm晶片能透過台積電3nm製程,在相同機架與電力限制下塞入136個核心,並提供兩倍於x86架構CPU的效能時,x86架構在AI時代「功耗比過高」的致命傷將被進一步放大。這不僅象徵著資料中心的運算主力正無可避免地向Arm架構全面傾斜,更預示著一個以能效為核心考量的AI運算新時代已然來臨。