獲 CSP 青睞,Arm 架構 CPU 料漸成 AI ASIC 伺服器主流
一句話版本
雲端大廠為咗配合自研 AI ASIC、提升每瓦算力同減低對 x86 供應商依賴,正加速轉去用 Arm 架構做 AI 伺服器主機 CPU,而且個轉向可能比市場原先估計更快。
點解重要
- 伺服器 CPU 嘅角色變咗:呢篇唔只係講 Arm 搶市占,而係講 AI ASIC 伺服器入面,主機 CPU 已經由「通用配角」變成要配合加速器一齊設計嘅基礎元件,代表平台控制權正由傳統 CPU 廠手上移去 CSP。
- AI 基建會愈來愈「全棧自研」:當 Google、Meta 呢類公司連主機 CPU 都傾向自己定義,代表未來競爭點唔止係買到幾多 GPU,而係邊個有能力整合 CPU、加速器、機架功耗同軟體棧。
- 每瓦性能變成採購主軸:文章強調 Arm 喺同等機架配置下可做到更高每瓦性能,呢件事重要喺於資料中心而家最貴未必係晶片本身,而係電力、散熱同機櫃空間。
- x86 喺 AI ASIC 場景未必再係預設答案:Intel 同 AMD 過去幾年主導市場,但如果 AI ASIC 伺服器愈來愈多,x86 嘅優勢可能會縮到只剩成熟生態,而唔係架構本身最適合。
- Arm 唔再只係「可以用」,而係「大廠已落場驗證」:Google 喺 TPU 基礎設施部署 Axion、Meta 又將 Arm 納入下一代 MTIA 策略,意思係大型 AI 基建對 Arm 嘅採用已經過咗概念驗證階段。
- 2026 下半年可能係加速點:如果分析師判斷成立,供應鏈、主板設計、韌體、作業環境同工具鏈都會喺短時間內向 Arm 傾斜,對上游同系統整合商都係實際變化。
- Arm 首款 AGI CPU 有象徵意義:重點唔只係新產品,而係 Arm 開始更直接定義面向 AI 基建嘅伺服器 CPU 平台,想由 IP 提供者再向平台主導者行前一步。
- 供應鏈議價力會被重排:CSP 用自研 Arm CPU 配自己 ASIC,等於削弱對外部 CPU 供應商嘅依賴,長遠會影響傳統伺服器處理器廠商嘅毛利同話語權。
- 標準化可能讓位畀場景優化:AI ASIC 伺服器本來就係高度客製化場景,Arm 架構更易配合特定工作負載調校,說明未來「最好用」可能比「最通用」更值錢。
- 市場預測本身都反映方向感:由 2025 年約 25% 拉到 2029 年約 90% 呢種幅度,就算最後冇咁極端,都已經說明研究機構認為轉向唔係小修小補,而係結構性替換。
我哋點睇
- 如果我哋做同 AI 基建、控制面、部署流程有關嘅產品,之後唔應再默認 x86 係唯一主流環境,測試同相容性規劃要預留 Arm 伺服器情境。
- 諗基礎設施 roadmap 時,要更加重視功耗、密度同平台可控性,因為客戶未來未必最關心「通用算力」,而係「同自研加速器夾唔夾」。
- 對外講產品定位時,可以留意呢個訊號:愈貼近 AI 資料中心實際營運成本同異質硬體協同,愈容易對到下一輪採購需求。