如果您希望可以時常見面,歡迎標星 收藏哦~
來源:內容編譯自semiengineering,謝謝。
2025 年初,我認爲 AI 被過度炒作,ASIC 仍是小衆產品,市場回調不可避免。我的長期觀點發生了巨大變化。AI 技術和應用正在以驚人的速度加速發展。GenAI/LLM 領導者之一 Nvidia 將在 2030 年成爲首家市值達到 10 萬億美元的公司。
大型語言模型 (LLM) 在功能和成本效率方面都在迅速提高。目前每週有超過 5 億用戶,其中 ChatGPT 領先,而且這個數字還在快速增長。這種指數級增長推動了數據中心使用量和資本支出的大幅增加,主要由領先的 CSP 推動——亞馬遜、微軟、谷歌、Meta 和現在的 OpenAI。其中四家是市值達萬億美元的公司。他們將挑選半導體贏家。
在 GTC 2025 上,Nvidia 首席執行官黃仁勳預測,到 2028 年全球數據中心資本支出將達到 1 萬億美元。按照這個速度,到 2030 年數據中心資本支出可能達到約 1.4 萬億美元。我在這次分析中尋找的是大局——5 年後的數字只是大致估計,以瞭解趨勢。
在最近一個季度,Nvidia、Broadcom、AMD、Intel、Marvell、SK hynix、Micron 和 Samsung 的數據中心相關出貨量超過了 2200 億美元的年出貨量(不包括電源芯片)。(感謝 Objective Analysis 對數據中心內存出貨量的研究。)
華爾街預計,從 2024 年到 2027 年,Nvidia 的收入將翻一番,達到每年約 2750 億美元。其中約 90% 用於數據中心;其中很大一部分是網絡、軟件和系統,而不僅僅是 GPU。Nvidia 不銷售半導體。他們銷售模塊、電路板、機架和系統。如果 Nvidia 到 2030 年再增長 50%,其年收入將超過 4000 億美元,主要由數據中心需求推動。部分原因是 GPU 已經變得像智能手機一樣。它們的每瓦性能提升如此之快,以至於僅用 3 到 5 年就可以更換它們,這是經濟的。功率是數據中心的限制因素,因此每瓦性能比每美元性能更重要。
隨着 LLM 的快速擴展,預計到 2030 年數據中心的半導體支出將超過 5000 億美元,佔整個半導體行業的 50% 以上。
2030 年半導體支出概況:
GPU/AI 加速器 :60%
網絡:15%
CPU(x86 和 ARM):10%
非 HBM DRAM/閃存 :10%
電源、BMC 等: 5%
人工智能海嘯將繞過大多數半導體公司。幾乎所有數據中心半導體收入都集中在九家公司身上:Nvidia、臺積電、博通、三星、AMD、英特爾、美光、SK 海力士和 Marvell。一些市值不超過 100 億美元的小公司在數據中心領域佔有重要地位——Astera、Credo、MACOM、ASPEED、Alchip、GUC 和 SiTime。市值萬億美元的巨頭(亞馬遜、微軟、谷歌、Meta、Nvidia 和博通)可以收購 AMD、英特爾、Marvell、聯發科、Astera 等小公司,以確保其在人工智能領域的領導地位。
類別細分和主要參與者:
1
GPU/AI 加速器
贏家:Nvidia
競爭者:Broadcom,以及潛在的 AMD
近期 AI 加速器季度收入:
Nvidia 約 330 億美元
博通約 40 億美元
Marvell 約 10 億美元
AMD < 10 億美元
按年計算,這個市場的規模超過 1500 億美元,預計到 2030 年將翻一番甚至更多,達到 3000 億至 4000 億美元。
目前,前四大 CSP 約佔 Nvidia 銷售額的一半。由於只有最大的參與者才能構建高價值的前沿 LLM,這種銷售集中度可能會持續下去。
Nvidia 的頂級客戶每年的支出已經達到 200 億美元,而且增長速度很快。雖然開發定製加速器每年可能要花費約 5 億美元,但如果結果是針對內部工作負載優化的更便宜的加速器,那麼這是具有成本效益的。Nvidia 的利潤率約爲 75%,Broadcom 約爲 65%。如果他們都以 25 美元的成本製造相同的 AI 加速器,那麼 Nvidia 的售價爲 100 美元,而 Broadcom 的售價爲 75 美元。因此,與 Broadcom 合作可以節省 25%。此外,GPU 具有很強的可編程性。但正如 Sam Altman 所說,可以犧牲一些靈活性,比如只關注變壓器,同時仍運行所需的工作負載。Alchip 和 Broadcom 估計 AI 加速器的成本降低了約 40%。
儘管如此,大型 CSP 仍將繼續購買 GPU 以實現靈活性和風險管理。他們的大多數雲客戶的 AI 模型都使用 PyTorch 針對 Nvidia GPU 進行了優化。
Nvidia 宣佈了未來幾年非常積極的 GPU 路線圖,旨在超越定製 AI 加速器和 AMD 的競爭。
與此同時,如果 AMD 能夠成爲 Nvidia 的替代 GPU 供應商,那麼它就有巨大的機會。這是 AMD 進入萬億美元俱樂部的門票。首席執行官 Lisa Su 已經展示了後來居上的能力。LLM 開發人員希望 AMD 取得成功,並將爲他們提供具有競爭力的業務。但 AMD 面臨挑戰:
它正在趕上 GPU 性能,但它能跟上步伐嗎?
Nvidia NVLink72 具有擴展交換功能,而 AMD 沒有。此外,Nvidia 還將在未來幾年內擴展到 576 個 GPU。
Nvidia CUDA 經過十幾年的發展,現在 Dynamo 又增添了該公司在軟件方面的領先地位。
假設 CSP 和 OpenAI 在 2030 年購買所有 AI 加速器的三分之二,將其需求分爲定製 ASIC 和 GPU,GPU 支出可能達到 2000 億美元至 2700 億美元,主要來自 Nvidia。定製 AI 加速器可能佔 1000 億美元至 1300 億美元(博通首席執行官 Hok Tan 預計到 2027 年 TAM 將達到 600 億美元至 900 億美元)。這些數字可能還有上升空間。
參加 AI 加速器競賽的關鍵要求包括:
一個非常龐大的 ASIC 團隊;
高速模擬專業知識(PHY 速度升至 448GT/s);
先進的 2.5D/3D 先進封裝,以及
財務實力雄厚,並能獲得臺積電尖端節點和封裝技術。
目前,博通佔據定製 ASIC 市場約 80% 的份額,並且很可能繼續保持 50% 以上的份額,因爲它擁有團隊、技能和資本,並且能夠將其 ASIC 與 Nvidia 以外最好的交換芯片封裝在一起。規模小得多的 Marvell 現在排名第二。AI ASIC 的競爭者是聯發科、Alchip 和 GUC。
CSP/OpenAI 正在推動 LLM 和 ASIC 架構的發展。他們可以決定收購一家 ASIC 廠商,以進一步改善其成本結構。
2
AI 擴展網絡
贏家:Nvidia
競爭者:Broadcom、Astera
博通首席執行官 Hok Tan 估計,網絡目前佔數據中心支出的 5% 到 10%,隨着互連 GPU 數量的增加,互連的增長速度會更快,這一比例將增長到 15% 到 20%。
Nvidia 的擴展網絡(例如,NVLink72,轉移到 NVLink576)提供了機架內和跨機架的無阻塞、全到全連接——一個強大的競爭護城河。
博通是一家強大的交換機芯片供應商,爲非 Nvidia 系統提供替代方案。Marvell(通過收購 Innovium)和 Astera Labs(現已上市,市值約 100 億美元)是新興企業。Auradine 等初創公司也在開發針對 AI 優化的交換機。
隨着銅互連達到極限,光子學和激光將變得越來越重要。該領域的主要參與者包括 Coherent 和 Lumentum。
橫向擴展網絡的參與者還有很多。
3
CPU(x86 和 ARM)
獲勝者:Nvidia(使用 ARM)
競爭者:AMD
最近季度的出貨量:
AMD:39億美元(x86)
英特爾:33億美元(x86)
Nvidia 基於 ARM 的 CPU(例如 Grace)與其 GPU 一起出貨。雖然沒有具體數據,但 Nvidia 很可能在 2030 年之前超越 x86 出貨量,因爲 GPU 出貨量將占主導地位。AMD 仍然是最強大的 x86 供應商,但需要擴大 GPU 產品供應以保持競爭力。
4
內存
優勝者:HBM
HBM 收入(約 250 億美元)完全來自數據中心。它比 DDR 提供更好的性能和集成度,尤其是對於 AI 工作負載。HBM 以小芯片形式出售,對加速器效率至關重要。HBM 利潤率遠高於 DDR 和閃存。
美光和 SK 海力士在 HBM 開發方面處於領先地位;三星落後。
5
其他芯片
獲勝者:ASPEED
隨着 GPU 功率超過 1KW,電力傳輸變得越來越重要。AI 機架需要 48V 系統和複雜的 PMIC。利潤率適中,但市場規模巨大。
ASPEED(臺灣,市值約 40 億美元)主導着 BMC 市場,80% 至 90% 的 AI 主板都採用了其芯片。該公司與富士康等 OEM 廠商關係密切,擁有強大的競爭優勢。
6
AI 代工
贏家:臺積電
得益於先進的節點和 2.5D/3D 封裝技術,臺積電幾乎爲數據中心生產所有高價值非內存芯片。其一半以上的收入來自 AI/HPC。
三星和英特爾擁有必要的技術,但他們面臨挑戰:
所有芯片都必須採用相同的代工工藝。這對客戶來說是一場豪賭。
將高速 PHY 移植到第二家代工廠會增加複雜性。
英特爾晶圓廠利用率不足以及缺乏批量生產驅動力導致客戶猶豫不決。
但人工智能的需求甚至可能超過臺積電的產能,需要使用三星和/或英特爾。
總結
LLM 正在推動 AI 數據中心基礎設施的爆炸式增長,到 2030 年將佔全球半導體市場的一半以上。這一增長將使一小部分公司受益——那些擁有規模、人才和資本來爲超大規模 CSP 提供服務的公司。Nvidia、臺積電、Broadcom 和 ASPEED 憑藉其強大的價值主張和可持續優勢處於最佳位置。
AMD 和英特爾正處於“泡沫之中”——如果他們能與 Nvidia 成爲有力的競爭對手,他們就有可能加入萬億美元俱樂部;或者像英特爾一樣,與臺積電爭奪 AI 代工業務。
那些無法快速擴張或通過合併實現規模的半導體公司可能會被市值萬億美元的巨頭收購。或者,隨着人工智能芯片越來越多地由內部開發,它們可能會被淘汰。
點這裏 加關注,鎖定更多原創內容