智通財經APP獲悉,國盛證券發佈研報稱,DeepSeek對算力效率的提升一度讓市場對算力的邏輯產生分歧,而隨着DS用戶數的增長,算力緊缺的現實卻不容忽視。當用戶規模爆發後,推理帶來的前端需求將讓AI算力的蛋糕越變越大。伴隨近期AI Agent等熱點技術快速落地以及各深度學習架構的快速進展,疊加海內外各巨頭均增加AI相關投資,AI應用的需求起量已成爲必然趨勢。而AI應用起量將帶動算力前端需求迅速增長。
國盛證券主要觀點如下:
前後端適配:性能與數據需求驅動
以往市場普遍認爲計算集羣中每塊GPU通常配備3個光模塊,主要用於橫向互聯(GPU-GPU)和CPU的連接。而隨着未來技術演進以及計算集羣規模的大幅擴張,光模塊配比將大幅上升,以用於更高的前後端帶寬適配:
NVLink:一種點對點連接接口,目前最高可實現8:1甚至更高的GPU對GPU直連,計算集羣所需的高帶寬、低延遲要求越高,GPU-GPU直連數量越多,導致光模塊數量激增。
NVSwitch:基於NVLink的一種硬件交換機,可支持16個甚至更多的GPU之間的高帶寬通信,實現“每個GPU到其他所有GPU”之間的直接數據傳輸,GPU數量越多所需光模塊比例越高。
更高吞吐的存儲前端:數據吞吐量增加拉動存儲需求增加,而採用高IOPS存儲(如HBM+PCle Gen5/6+CXL)則可能需要更多光連接以避免存儲成爲瓶頸。
外部數據接入優化:模型推理任務對實時數據流、外部數據庫或雲端數據輸入依賴更大,導致前端光模塊需求上升。
應用場景:低延遲、高帶寬將成主流
從模型訓練以及推理視角來看,大模型訓練階段雖模型參數巨大,但GPU-GPU通信是主要瓶頸,傳統3倍光模塊即可滿足需求。而在推理以及應用階段,計算集羣需接入海量外部數據(多模態數據、數據流、IoT設備等),需要更強的前端IO和數據傳輸帶寬,導致光模塊需求大增。從數據流架構來看,傳統HPC或AI訓練的數據基本在本地高帶寬存儲和GPU互聯之間傳輸,對光模塊需求較低。而AI推理所需的CDN式數據訪問(分佈式數據存儲+雲計算源,AI推理中主要解決帶寬有限、延遲高問題)則需要高吞吐的光連接。
國盛證券認爲,伴隨未來大量AI應用落地,海量的外部數據和AI推理實時響應的特性將驅動低延遲、高寬帶的光互連成爲主流,光模塊在大規模AI集羣的作用將持續擴大。同時AI推理和應用側對高IO、低時延數據流的需求增加,未來隨着存算分離、光互連、CXL、分佈式計算的發展,光模塊需求在AI數據中心中的佔比可能持續上升。
AI推理:仍需大規模集羣,高速率光模塊將逐步普及
目前超大規模AI推理如大模型API服務、搜索推薦、AI Agent在推理時需要跨多個GPU訪問鍵值緩存,如xAI採用了十萬卡集羣用於推理、Deep Seek由於訪問數過多頻繁出現“服務器繁忙”問題均說明大規模推理仍有需求。
AI推理數據吞吐遠超訓練階段,高速率光模塊將迎來產品切換。AI模型訓練時通常使用本地數據集,而推理階段需要接收海量的外部數據,這將導致數據中心需要更高速率、更低延遲的光模塊來存儲、計算和外部數據源。隨着AI推理對數據處理要求越來越高,800G、1.6T光模塊將逐步普及。另一方面CPO等低功耗、高帶寬方案將成爲主流。
數據中心:推理側需求體量拉動去下·庫存加速
正如上述觀點,Deep Seek服務器頻繁宕機說明一個問題——目前推理側機房數量不足以支撐其提供如此多的用戶訪問並提供推理服務,這反映了AI推理端對機房的大量需求。而上一波雲計算浪潮帶來的IDC建設高峯留下了大量空置或低租金的存量資源,隨着AI端推理側的需求增加,將會加速老舊數據中心去庫存進程,加速機房改造並提高資源利用率。
標的方面
仍長期看好算力板塊,重點推薦光通信龍頭中際旭創(300308.SZ)、新易盛(300502.SZ)、天孚通信(300394.SZ)等。同時建議關注相關產業鏈如光互連方向太辰光(300570.SZ)、德科立(688205.SH)等,數據中心方向潤澤科技(300442.SZ)、萬國數據-SW(09698)、數據港(603881.SH)、光環新網(300383.SZ)、奧飛數據(300738.SZ)等,CDN方向網宿科技(300017.SZ)等。
風險提示
AI發展不及預期,算力需求不及預期,市場競爭風險。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。