DeepSeek的“暴利”表明,通過極致的infra優化能實現極高的算力利用率和性能。但是關於DeepSeek的是否是對算力的核彈,外界仍有不少分歧。知名投資人段永平贊同此前英偉達CEO黃仁勳的觀點,DeepSeek會激發市場對更高效AI模型的追求,認爲算力需求會持續增長。但是也有國外科技博主表示,DeepSeek已經把英偉達“擊倒”,按照DeepSeek目前對算力的超高利用率,滿足全球的AI需求綽綽有餘。
在過去一週的開源週上,DeepSeek“五天五連炸”讓市場拍案叫絕。而就當外界以爲這場盛宴即將落下帷幕之時,DeepSeek拿出了更令人震驚的“彩蛋”——成本利潤率高達545%,V3/R1推理系統理論日利潤達到346萬元人民幣。
而在市場爲這超高“暴利”連連感嘆的同時,也更關心這幾個問題:如何解讀545%這個利潤率?是否是對算力的核彈?這對雲產業鏈意味着什麼?這對大模型同行意味着什麼?這對生態又意味着什麼?數位科技博主的主要觀點如下:
利潤率545%目前仍是理論收益,DeepSeek R1模型的利潤率約爲85%。而如果按照V3的定價,利潤率會降至70%左右。即便如此,這個數字仍然非常可觀。
而對算力產業鏈來說,DeepSeek的案例證明,即使在硬件條件相對有限的情況下(使用H800),通過極致的infra優化,也能實現極高的算力利用率和性能。
但是關於DeepSeek的創新是否會減少對算力的需求這一點,外界仍有不少分歧。知名投資人段永平贊同此前英偉達CEO黃仁勳的觀點,認爲算力需求會持續增長。但是也有國外科技博主表示,DeepSeek已經把英偉達“擊倒”,按照DeepSeek目前對算力的超高利用率來看,全球的AI需求都沒有這麼多。
此外DeepSeek的案例證明,讓AI雲計算與傳統雲計算的相似性更加明顯。AI雲計算也將同樣面臨着“低峯期閒置率”和“高峯期穩定性”的挑戰。
DeepSeek的開源和技術披露,爲整個行業樹立了新的標杆。同行可能要面臨更大的競爭壓力,新一輪價格戰正在路上。
對於行業生態來說,DeepSeek通過開源技術和輸出,將吸引業界在其基礎上構建to B和to C業務,形成完整的產業上下游。
首先需要明確的是,DeepSeek官方公佈的545%利潤率是基於特定條件下的“理論”計算,即假設所有tokens都按照R1模型的定價計算,且未考慮V3的更低定價、免費服務佔比以及夜間折扣等因素。實際上,根據DeepSeek官方的說法,他們真實的利潤率遠沒有這麼誇張。
按照科技博主180K的解讀,DeepSeek R1模型的利潤率約爲85%,而如果按照V3的定價,利潤率會降至70%左右。即便如此,這個數字仍然非常可觀。
180K表示,這一點可以通過對比Anthropic的利潤率來更深入地理解。根據TD Cowen的拆解,Anthropic 2024年的利潤率預計爲61%。如果按照DeepSeek的口徑,並考慮AWS的雲計算利潤率(假設爲25%-40%),Anthropic的利潤率可以達到74%。極端情況下,如果假設AWS的利潤率爲50%,Anthropic的利潤率甚至可以達到85%,與DeepSeek的R1模型相當。
這說明,儘管OpenAI和Anthropic在成本控制上可能不如DeepSeek極致,但它們憑藉更高的定價和更慷慨的客戶(至少目前如此),也能實現類似的高利潤率。需要注意的是,OpenAI經常被報道“虧損”,這是因爲在融資時,投資者通常關注的是財務會計上的盈虧,而非大模型租賃角度的理論成本,模型訓練成本、數據授權費用、人員和宣傳等運營支出通常也被計入。
DeepSeek的案例證明,即使在硬件條件相對有限的情況下(使用H800),通過極致的infra優化,也能實現極高的算力利用率和性能,這對整個算力產業鏈影響巨大:
首先,科技博主180K認爲,“有效算力”的重要性將凸顯。行業將更加關注“有效算力”(算力 x 算力利用率),而不僅僅是單純的算力堆砌。
並且國產芯片的上限有望提升。如果H800都能跑出如此效果,那麼通過infra優化,國產芯片的性能上限或許能進一步提高。
另外,科技博主信息平權認爲,“傑文斯悖論”持續生效。算力效率的提升並不會減少算力需求,反而會刺激更多應用場景的出現,推動算力需求的持續增長。正如巴克萊銀行在去年6月的預測,到2026年,業界的資本支出足以支撐“12000+個ChatGPT級別的應用”。
而且短期內算力需求邏輯可能受到質疑。一些企業,特別是海外大廠的CIO或CFO,可能會面臨來自投資人和老闆的壓力,被要求解釋爲什麼他們的ROI遠低於DeepSeek。
知名投資人段永平也在雪球上表示,DeepSeek的經驗的確證明了模型預訓練階段較低的算力也可以達成比較好的訓練結果。而且他也贊同黃仁勳的說法,認爲DeepSeek的創新不會減少對算力的需求。
此前黃仁勳曾在2月的訪談中表示,認爲市場對DeepSeek的理解完全搞反了。他表示,R1的出現並非意味着市場不再需要算力資源,而是激發了市場對更高效AI模型的追求,從而推動整個行業的發展。
但是國外科技博主Zephyr則認爲,DeepSeek已經將英偉達“擊倒”。而且按照DeepSeek目前對算力的超高利用率來看,滿足全球的AI需求綽綽有餘。
DeepSeek已經將英偉達“擊倒”。
我之所以這麼說,是因爲 DeepSeek 目前每天在 300 臺 H800 節點(共 2400 張 H800)上處理 6000 億 個 token,並輸出 1500 億 個 token。
如果算力擴大 100 倍(即 24 萬張 H800),每天就能處理 60 萬億 個 token,並輸出 15 萬億 個 token。
但全球的 AI 需求並沒有這麼高。
DeepSeek的成功案例,讓AI雲計算與傳統雲計算的相似性更加明顯。AI雲計算也將同樣面臨着“低峯期閒置率”和“高峯期穩定性”的挑戰。
科技博主180K認爲,雲計算的規模效應會更加顯著。DeepSeek的實踐表明,大規模集羣和高併發利用率能顯著降低成本。用戶數量的正外部性更加明顯,即用戶越多,平抑波動的能力越強,算力冗餘需求越低。
雲廠商的競爭優勢可能發生變化。擁有自身業務的雲廠商(如阿里、騰訊、蘋果等)可能比沒有自身業務的雲廠商更具成本優勢,因爲它們可以將推理集羣作爲所有業務的底座,實現更大的規模效應。
而且雲計算的利潤率有提升空間。DeepSeek的案例表明,在AI時代,通過極致的infra優化,雲計算的利潤率有進一步提升的潛力。
此外,私有云部署的吸引力可能下降。超稀疏的MoE模型可能並不適合個人或“半桶水”的企業部署,小規模GPU部署的成本可能遠高於大廠。這可能導致更多企業選擇公有云或混合雲模式。
普通雲計算/AI應用需要爲高強度用戶併發預留更多空間。用戶對DeepSeek的“服務器繁忙”有較高的容忍度,但對於其他應用則不然。這可能導致普通雲計算/AI應用的利潤率進一步下降。
DeepSeek的開源和技術披露,爲整個行業樹立了新的標杆。
科技博主信息平權認爲,DeepSeek的案例表明推理成本的“底線”被大幅拉低,可以遠低於之前的預期。而且新一輪價格戰可能爆發,同行們將面臨更大的降價壓力以保持競爭力。
並且DeepSeek爲所有推理團隊提供了明確的優化路徑和目標,後續壓力會加大。
另外在這種情況下,OpenAI的高價訂閱模式也將面臨挑戰,每月200美元的高昂訂閱費有些尷尬。
DeepSeek的戰略是專注於基礎模型和前沿創新,通過開源技術和輸出,吸引業界在其基礎上構建to B和to C業務,形成完整的產業上下游。
科技博主極客公園表示,生態合作伙伴的盈利空間增大。雲平臺和上下游通過部署DeepSeek的服務,理論上可以獲得很高的收益和利潤率。
展望後續生態,模型架構的差異化可能成爲競爭關鍵。因爲DeepSeek V3/R1的架構與主流模型有較大差異,這要求供應商進行適配,開發難度較高。
而且DeepSeek的開源舉措,降低了社區復現其推理系統的難度,有利於生態的繁榮。
科技博主180K則表示,整個行業可能將開始卷Infra。某種程度上,Infra的重要性在提高,估值也可以提升。
總而言之,DeepSeek的超高利潤率,不僅是一個數字上的奇蹟,更是對整個AI行業的一次深刻啓示。它揭示了infra優化的巨大潛力,推動了算力、雲、大模型以及生態的變革,預示着一個更加高效、低成本、競爭激烈的AI時代即將到來。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。