微軟砍單以及傑文斯悖論效應疑似減弱

華爾街見聞
04-04

微軟砍單1.98GW爲分期4年,相當於每年實際砍單爲500MW。分佈的數據中心包括US Atlanta,US Wisconsin,US San Antonio 2 facility,US Kansas City, US Cedar,US Illinois,以及EU 390MW。

在TD Cowen出傳出MSFT放棄2GW數據中心後,我們與一直緊密聯繫的CSP專家再次溝通了解了情況。

我們在2月中曾經與該專家聯繫,並詳細瞭解了微軟延遲兩個IDC項目的原因,後續也被The Information/TD Cowen等證實。

當時該專家提到Deepseek正在迅速帶來GPU利用率的上升,這主要因爲客戶會出現Double Purchase情況,即在試用Deepseek的同時保留GPT/Llama等的使用,需要2個月時間觀察最終影響。

我們與其他的北美算力租賃專家溝通,其結果也都基本一致。

本次與該專家溝通,出現了新的變化。對於文中的CAPEX估算不用過於在意,很難準確,主要看邊際變化。

下面總結一下專家的溝通信息:

1.MSFT 這次總共放棄1.98GW 租賃需求:

·其中歐洲390MW, 其餘是美國本土。

·本次砍需求與OpenAI有關,但也與Deepseek的傑文斯悖論開始減弱

·在Deepseek上線後同時使用Deepseek與GPT/Llama的客戶,開始從同時試用/測試,過渡到最終模型

·下游部分客戶從GPT轉向Deepseek導致原先需求增長預期有所放緩,疊加部分使用Llama中低端模型的客戶對高端算力GPU的需求也沒那麼高

2.MSFT因此可能會削減CAPEX:

·專家預計MSFT FY26 CAPEX可能會下降5-10億美金

·專家預計MSFT FY27 CAPEX可能會持平或者微增到82-84Bn,其主要取決於Rubin的需求情況

·專家預計MSFT FY28 CAPEX可能會出現同比下滑,因爲屆時MSFT希望更多采用自研ASIC

·專家認爲MSFT的CAPEX放緩,主要因MSFT不需要自研模型投入,以及與OAI關係變化導致

3.META與GOOG可能不會出現類似情況:

·META與GOOG目前都還有前沿模型投入,MSFT的CAPEX放緩不能作爲META與GOOG後續CAPEX趨勢的依據

4.考慮到MSFT砍需求,以及Deepseek對OpenAI的影響,MSFT CY25/26年的租賃收入可能下滑:

·CY25從4.4Bn預期下滑到4.1Bn

·CY26從9Bn預期下滑到8Bn

·OpenAI API Chatbot類型需求正在因Deepseek出現而放緩,但金融/政府/醫療企業仍然在加速投資

·GB200上線後,對已出租的H卡租賃價格影響非常有限,主要因目前的價格大多都是長約;但新簽約的H卡租賃價格仍然會繼續降低,導致利潤率邊際下滑,同時利用率也可能會有15%幅度下滑

·GB200目前Azure已經上線2萬卡,5月會陸續上線6-7萬卡,與之前鳳凰城IDC的推進進度一致

5.Coreweave的CAPEX下調可能也與Deepseek有關:

·Coreweave的CAPEX也受到IPO融資能力影響,出於現金流考慮下調

·下游客戶與MSFT出現的情況類似,因爲受到Deepseek的影響,以及GB200本身供應鏈問題,對GB200需求邊際下降,因此Coreweave計劃降低GB200需求,並在未來轉移到GB300上,短期增加了部分H200卡

·之後CAPEX是上調還是下調不好說,等待GB300情況

6.OpenAI的CAPEX仍然激進:

·Oracle FY26 CAPEX預計25Bn,其中16-17Bn來自OpenAI需求

·OpenAI後續會自建1-2個大型IDC用於自研ASIC需求

本文來源:共識粉碎機,原文標題:《微軟砍單以及傑文斯悖論效應疑似減弱(全文)》

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10