2025-09-05 22:35:32
大模型時代,AI芯片成大型AI廠商競爭力關鍵,阿里此時自研AI芯片恰逢其時。當前,DSA定制化與通信彌補單卡算力短板成趨勢,阿里也趕上這波風潮。同時,阿里從服務器芯片入手,逐漸增加自研比例,基于RISC-V架構構建AI硬件底層競爭力。不過,阿里利用RISC-V架構研發推理芯片也面臨生態等挑戰,若成功,國產芯片制造及光模塊廠商或迎來大發展。
每經記者|朱成祥 每經編輯|張益銘
在大模型時代,擁有的AI(人工智能)芯片數量,決定了一家AI廠商的競爭力。
如今,阿里也被曝出正自研AI芯片。顯然,在這一輪科技產業變革中,AI芯片已經成為大型AI廠商的“必答題”。
沒有足夠的AI芯片,就無法為未來海量增長的大模型應用提供算力支持;沒有足夠的AI芯片,也就難以通過規模定律,在大模型訓練中占據有利位置;沒有足夠的AI芯片,無論是大模型還是云計算,都將成為沒有根基的“無本之木”。
阿里選擇“破局”AI芯片,恰逢其時。算力不夠,數量來湊。目前,國產算力廠商、云基礎設施廠商普遍通過“通信”來彌補單卡算力的不足,從而實現兩顆乃至多顆國產算力卡達到英偉達一顆算力卡的效果,即“兩卡打一卡”。
在這場不能輸的科技突圍戰中,阿里憑借國內諸多廠商的努力,已占得先機。
在云計算時代,阿里云是國內市場的絕對領導者。進入大模型時代,阿里又迅速以“通義千問”系列產品躋身第一梯隊。
國際市場調研機構沙利文報告顯示,2025年上半年,中國企業級市場大模型的日均總消耗量為10.2萬億Tokens(文本處理的最小單位?),其中,阿里通義占比17.7%位列第一,成為目前中國企業選擇最多的大模型。
然而,大模型的競賽遠未到終局。當大模型從文本大模型走向多模態,決定未來市場格局的關鍵,正從算法層面向更底層的硬件基礎設施下沉。
目前,Scaling Law(規模定律)仍在生效,擁有更多的AI算力,將有助于在大模型訓練中占據優勢。此外,在推理側,大模型應用已經開始爆發。
阿里云收入的大增即證明了這一點。根據阿里巴巴財務報告,2025年4月至6月,阿里云實現超預期增長,季度收入同比漲26%至333.98億元,增速創3年新高。
而為了應對未來的訓練、推理需求增長,各大廠商都在加大AI算力的“軍備競賽”。據中郵證券研報,微軟2025年第二季度(2025財年第四財季)資本開支為242億美元,同比增長27%,目前,微軟正在加速建設數據中心,以滿足對AI訓練和工具激增的市場需求。公司預計,2026財年第一財季有望將資本開支提升至300億美元以上。
谷歌原本預計2025年資本開支為750億美元,由于云產品和服務的需求強勁且不斷增長,其將2025年資本開支上調至850億美元。
8月29日,阿里發布2026財年第一財季報告,該季度資本開支為386.76億元,同比增長220%,超市場預期,創歷史新高,并重申未來三年持續投入3800億元用于AI資本開支的計劃。
而這些資本開支很大程度上用于AI算力。根據頭豹研究院數據,2020年至2027年,中國智能算力呈現爆發式增長,預計將從75EFLOPS(每秒浮點運算次數)躍升至1117EFLOPS,年均復合增速超60%,成為推動整體算力擴張的核心力量。
近期,A股最為火熱的股票,當屬DSA(專用微架構)芯片廠商寒武紀,以及光模塊廠商“易中天”(指新易盛、中際旭創和天孚通信)。
而這些股票受到資本市場青睞的本質,一方面是DSA更適合定制化,推理的單位成本更低;另一方面,是以通信彌補單卡算力不足。簡單說,由于制程工藝等因素影響,國內廠商在單卡算力上難以追上英偉達H100。不過,AI算力從來都不是單打獨斗,可以通過增加通信投入來彌補單卡算力不足的缺陷。
如今,阿里自研芯片,也趕上了這波風潮。
隨著大模型的發展,推理需求的增加,定制化較強的DSA是否更受歡迎呢?
PPIO派歐云工作人員告訴《每日經濟新聞》記者:“LLM(大語言模型)推理,大家更愿意為‘單模型專用’DSA買單;只要編譯器透明、能跑PyTorch2.1,就算只能干編碼或推薦兩件事,1.8至2.3倍能效比即可。”
云服務廠商優刻得架構技術中心總監劉華對《每日經濟新聞》記者表示:“這是肯定的。準確地說是分工演化,最近很?的一件事,就是字節采購國內某廠商加速卡?來推理,?且這個路徑已經有??驗證過了,?如谷歌的TPU在BERT和DeepMind模型推理,AWS的Inferentia在Alexa上的推理。”
劉華具體解釋:“DSA的優勢在于特定任務極致的效率和極低的功耗,其設計?就舍棄通?性,專?針對AI訓練和推理,DSA只會選擇訓練和推理的關鍵算?(例如:矩陣乘GEMM、卷積Conv、Attention)做硬件電路級優化。因此,?前做訓練?檻會稍微??些。”
可以看出,定制化的DSA相較于GPGPU(通用圖形處理器),在推理領域效率更高、功耗更低。而未來AI算力市場主要看推理,在優刻得看來,隨著AI的?泛應?,推理和訓練的?例?概是7:3,甚?是9:1。
另外,隨著大模型的發展,對算力密度有著更高的要求。為此,有Scale up(縱向拓展)和Scale out(橫向拓展)兩種方式。國產廠商正在通過Scale out來彌補單卡算力的不足。
PPIO派歐云工作人員告訴記者:“英偉達NVLink5把576卡拼成‘一臺大機’,訓練帶寬14.4TB/s;國產卡單芯弱30%至50%,靠1.6Tbps以太網Scale out可彌補,達到128卡約等于64卡H100的水平。”
其認為,當國產算力芯片達到英偉達單卡性能一半時,還可以通過(通信)網絡彌補。當性能不足一半時,網絡也救不了,還得卷單卡性能。
不過,Scale out也增加了對光模塊的需求。華為昇騰384超節點就需要6912個光模塊。
劉華表示:“英偉達發現Scale up會面臨越來越多的挑戰,比如散熱、距離墻等,因此在2025年CES(國際消費類電子產品展覽會)上,英偉達提出CPO(共封裝光學)的概念,就是要解決Scale out的問題。不過,Scale out也存在‘通信墻’的問題,對于訓練參數數量巨大的基礎模型,內部數據通信量是天文數字,通信開銷會急劇增加,有效計算時間占比下降。”
大模型對AI算力的龐大需求,DSA的發展和Scale out的進步,降低了國產AI算力的供給難度。阿里此時推出AI推理芯片,可謂恰逢其時。
事實上,阿里在AI算力芯片領域已經籌劃多年,且正在打造開源生態系統。
2017年,阿里成立達摩院。2018年,達摩院建立玄鐵團隊,并于2019年推出基于RISC-V架構的玄鐵處理系列產品。
如今,玄鐵已經打造了多款基于RISC-V架構的芯片產品。
業內人士對《每日經濟新聞》記者表示:“服務器芯片中,除算力芯片,CPU物料成本占比約8%至10%,其次DDR5內存,占比為6%~8%,而NVMe SSD (NVMe標準的固態硬盤)4%~6%,400/800G網卡+交換合計5%;電源散熱液冷再分5%~7%,CPU+內存+存儲仍是BOM(物料清單)三座大山。”
劉華也對記者表示:“服務器芯片中,除了算力芯片外,CPU(中央處理器)、內存、存儲占比最高。在沒有GPU(圖形處理器)的服務器?,CPU占到總成本的20%至60%,特別是HPC(高性能計算)的?密集計算?甚?能占到60%。其次就是內存和存儲了,在內存密集型應?(如?型數據庫、內存計算)的服務器中,內存的成本甚?能超過CPU,?在存儲服務器中,?量SSD(固態硬盤)或全閃存儲是主要的成本構成部分。”
阿里開始從這些芯片入手,逐漸增加服務器芯片自研比例。CPU芯片方面,2019年,達摩院推出玄鐵C910,主頻達2.5GHz;2023年11月,玄鐵推出迭代版本C920,主頻提升至3GHz;2025年2月,玄鐵又推出其首款服務器級CPU玄鐵C930,并于3月份開始交付。
內存方面,國內有長鑫;存儲顆粒方面,國內有長存。因此,阿里又把自研的方向對準了SSD主控。
據達摩院旗下平頭哥半導體透露,2025年3月,鎮岳510已經在阿里云的EBS(塊級存儲解決方案)規模化上線。該產品能夠在同等資源條件下,幫助阿里云EBS客戶承載更多訪問量,間接實現降本增效。
北京得瑞領新科技有限公司也依托鎮岳510開發了其首款支持PCIe5.0接口的高性能NVMe SSD——D8000系列。借助鎮岳510帶來的提升,D8000系列產品性能功耗比較得瑞的上一代產品(PCIe4.0)提升70%以上,可滿足AI訓練、實時數據分析等需求。
鎮岳510,正是采用平頭哥自研的芯片架構,內置玄鐵R910 RISC-V多核CPU系統,最高頻率1.6GHz。
阿里基于RISC-V架構,逐漸覆蓋服務器級CPU和SSD主控。但其真正目標,仍是AI服務器皇冠上的寶石——AI算力芯片。
在2025玄鐵RISC-V生態大會上,達摩院首席科學家、知合計算CEO(首席執行官)孟建熠就表示,當前算力基礎是以GPGPU(CUDA)為代表的傳統閉源硬件與生態,隨著DeepSeek、Llama、Grok等開源大模型不斷涌現,給算力架構帶來了新機會。
孟建熠認為,隨著開源RISC-V架構快速發展,重新自研架構已意義不大,以RISC-V為基礎構建處理芯片是未來的主流。RISC-V在AI領域具備很高的包容性,可以支持做CPU/DSA,也支持做GPU、多核產品或者近內存計算。
而達摩院已經準備推出基于RISC-V架構的多款芯片產品,并在2025年2月公布了C908X、R908A和XL200等玄鐵處理器家族新成員的研發計劃。其中,C908X針對AI加速;R908A針對車載;而XL200提供更大規模、更高性能的多簇一致性互聯。
可以看出,從服務器CPU到SSD主控,從AI加速到車載芯片、互聯芯片,阿里正在基于RISC-V架構構建AI硬件底層競爭力。
AI推理可分為云側推理和邊緣側推理。與云側追求算力規模不同,邊緣側更加追求算力與需求適配,而這正符合RISC-V的特性。
與非研究院資深行業分析師張慧娟對記者表示:“RISC-V指令集非常精簡、高效,它是模塊化的,又具有擴展性。”
特普斯微電子市場總監杜云海認為:“RISC-V的崛起并非偶然,其開源指令集架構的特性早已為邊緣AI的爆發埋下伏筆。作為一種可擴展、模塊化的架構,并在專用微架構(DSA)等技術支持下,可支持廠商根據具體AI工作負載定制指令集,例如通過向量擴展提升并行計算能力,這恰恰契合了邊緣設備對算力‘按需分配’的核心訴求。”
不過,利用RISC-V架構研發推理芯片也存在不少挑戰,而最大的挑戰莫過于生態。
正如蓉和半導體咨詢CEO吳梓豪所言:“RISC-V關鍵是沒有生態,不是說設計出一顆芯片,就能使用起來。它需要匹配的生態、驅動。”
而阿里也正在補上RISC-V生態方面的短板。2024年3月,達摩院宣布發起成立“無劍聯盟”,通過構建開放、協同、普惠的RISC-V芯片服務體系,加速RISC-V產業化進程。據悉,成員將基于玄鐵處理器緊密推進IP(網際互連協議)協同、工具鏈優化、操作系統適配、解決方案拓展、應用推廣等工作。
若阿里自研的推理芯片得到大規模應用,國產芯片制造及光模塊廠商或將得到大發展。
目前,國內晶圓代工領域主要廠商為中芯國際、華虹公司和晶合集成,而擁有先進制程代工能力的,唯有中芯國際。
同時,Scale up領域代表是英偉達,而英偉達主要通過銅纜互聯。TrendForce集邦咨詢分析師儲于超告訴《每日經濟新聞》記者:“以英偉達的技術來說,目前Scale up采用銅纜,主要還是因為低延遲傳輸信號的考量,而不是成本。”
而國內廠商很多采用Scale out提升算力密度。儲于超表示:“隨著傳輸速度與數據量增加,Scale out會依賴800G/1.6T光模塊,甚至是下一代的CPO。”
封面圖片來源:圖片來源:視覺中國-VCG211478193393
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP