黃仁勳:我們剛剛才步入推理AI時代

市場資訊
03-03

上週英偉達第四季度財報全面超出分析師預期,營收同比增長78%393.3億美元。其中,數據中心業務收入大漲93%356億美元,佔公司總收入的90%以上,該業務涵蓋了英偉達在人工智能計算領域佔據主導地位的GPU(圖形處理器)。

儘管業績亮眼,英偉達股價仍未完全從12717%的跌幅中恢復,這一跌幅是自2020年以來的最嚴重單日下跌。

市場當時的擔憂來源於DeepSeek大家普遍認爲,這意味着AI算力的成本可以大幅降低

黃仁勳在採訪中對此反駁,他表示DeepSeek推動了推理模型的發展,而這反而會增加對AI芯片的需求。

DeepSeek 表現太棒了!黃仁勳說道它的驚豔之處在於開源了世界一流的推理模型如今全球幾乎所有AI開發者都在使用它。

黃仁勳表示,下一代AI將需要比舊模型多100倍的計算能力,這一變化源於推理階段的來臨。

以下是黃仁勳在財報公佈之後接受採訪的最新對話,聰明投資者(ID:Capital-nature)精譯分享給大家,值得細聽。

問題1

怎麼看待Blackwell的量產進展?

我們剛剛度過了一個非常出色的季度,量產進展也非常順利。但這一切並不容易。幾個月前,人們還在擔心,我們是否能夠成功量產像Blackwell 這樣複雜的產品。

Blackwell其實並不僅僅是一塊芯片,它是一個完整的系統。

這個系統重達1.5噸,包含150萬個組件。

它的製造難度極大,需要協調全球350家工廠10萬名操作員共同完成所以市場對Blackwell的量產進展有所擔憂是合理的。

但如今,我們已經成功完成了量產。

另一個市場關心的問題是Hopper向Blackwell的過渡可能會帶來“需求空窗期。但現在,這一階段已經順利渡過

我們本季度表現優秀,下個季度也會很好,而且Blackwell訂單需求強勁。。

問題2

你在財報電話會議上提到,指引也高於市場預期。

說到需求,我今天早些時候採訪了亞馬遜CEO安迪·賈西(Andy Jassy),他告訴我,如果AWS現在有更多AI 計算資源可供銷售,他能賣出更多。這與你在電話會議上提到的短期需求信號是一致的。

那麼,從中期來看,投資者應該關注哪些信號,能夠對AI算力需求的持續增長保持信心?比如數據中心的擴張、AI工廠的建設,相較於歷史趨勢的變化?

短期需求信號來自我們的採購訂單和預測數據。除此之外,還有許多新興的初創公司正在湧現,其中一些已經非常知名。

我不具體點名,以免遺漏任何一家,但它們真的非常優秀。這些公司利用新的AI推理能力和通用人工智能(AGI)取得了突破。

其中,一部分專注於智能體AI(agentic AI),另一部分專注於物理 AI(physical AI)。每個類別都有不少公司,而它們都需要額外的算力

這正是安迪·賈西所提到的情況:他們急需AWS提供更多計算能力,這都是既有訂單和預測數據之外的。

從中期來看,今年全球數據中心的資本支出遠超去年,而去年已經是一個高投入年份。

考慮到Blackwell的推出,以及更多數據中心即將上線,我們有充分理由相信,今年依然會是一個非常強勁的增長年。

問題3

那麼,從長期來看,哪些趨勢最讓你感到興奮?

我們剛剛纔步入推理AI時代。

以往的AI在接到問題後,會立即生成答案,但不會進行推理。現在的AI在回答問題前,會先進行思考,它可能會拆解問題、逐步推理,甚至進行自我反思,生成多個版本後選出最佳答案。

這種推理過程所需的計算量,是過去AI直接生成答案所需計算量的100 倍

如果你認爲去年計算需求已經很大,那麼推理AI的發展將徹底改變這一切。

DeepSeek就是一個典型案例,包括Chat T40Grok-3,都體現了這種趨勢這些AI 模型的計算需求,遠遠超過了過去的水平。

問題4

讓我打斷一下。有些人認爲DeepSeek其實意味着計算需求會減少。畢竟,最初的報道說,它能“以更少的算力實現更多功能”。

所以你的意思是,DeepSeek的一些成果實際上是相反的——未來對計算的需求會更高?能詳細解釋一下嗎?

AI的發展大致可以分爲三個階段。

第一階段是預訓練(pre-training),就像我們上高中一樣,學習大量基礎知識,比如數學、語言等。這種對人類知識的基礎理解是必不可少的,這爲下一步——後訓練(post-training)奠定了基礎。

在後訓練階段,AI可能會接受人類反饋,就像老師給學生講解,我們稱之爲強化學習——人類反饋。

AI可能會進行練習和思維實驗,就像爲考試做大量模擬訓練一樣。這一過程可以通過強化學習——AI反饋進行,甚至可以通過強化學習——可驗證獎勵反饋來進行測試和實踐。

換句話說,現在AI正在教AI如何成爲更好的AI。

目前,大量創新都發生在後訓練階段,尤其是在這些推理模型中。而這個訓練過程的計算負載,比預訓練階段可能要高出100倍。

然後,到了推理(inference)階段,AI不再只是根據提示直接生成答案,而是要進行推理。

它會先思考如何最優地回答問題,將問題拆解爲多個步驟,甚至會自我反思,生成多個版本,選出最優解再呈現給用戶。因此,哪怕是推理階段,計算需求也比ChatGPT 剛推出時高出100倍。

所以,所有這些新概念,包括強化學習、合成數據生成、推理AI等,正在讓算力需求飆升到前所未有的水平。

問題5

那我們談談很多投資者都在關心的性價比問題。各大雲計算公司在紛紛推出自研芯片,比如亞馬遜的Trainium、微軟的AI芯片、谷歌的TPU……很多客戶的預算有限,因此會優先考慮更便宜的替代方案,而不是購買英偉達的產品。

但與此同時,你在財報電話會議上提到了性能功耗比(performance per watt)。

如果你們的下一代產品相比市場上的其他方案,性能提升巨大,是否意味着儘管英偉達芯片的價格可能更高,但性價比實際上反而更好?

我們的產品銷量這樣高,恰恰因爲性價比是最好的。

而性能功耗比至關重要。原因很簡單,數據中心的規模是有限的。

一個數據中心的功耗可能是250兆瓦,也可能是1吉瓦,但無論數據中心規模多大,企業都希望最大化其收入。

換句話說,他們需要做到兩點:

一是生成高質量的tokens(AI令牌),可賣出更高單價;

二是最大化tokens的生成速率。。

換句話說,如果你的計算性能與單位能耗效率是市場最高的,那麼你幫助企業創造的收入也將是最高的。

Hopper到Blackwell,如果你觀察我們的產品路線圖,你會發現,推理AI模型的 token生成速率一直在大幅提升。

問題6

我想問一下關於你們的中國業務。你在財報電話會議上提到,中國市場的收入佔比已經是出口管制前的一半。隨着DeepSeek的出現,一些人認爲它可以繞開這些限制。

從你的角度來看,這是否能說明出口管制的有效性?

很難判斷出口管制是否真正有效。我可以告訴你的是,在出口管制前,我們在中國市場的收入佔比是現在的兩倍。

目前,中國市場的競爭非常激烈,除了出口管制的影響,還有華爲等本土企業的競爭。它們的技術水平很高,市場競爭力也很強。

但最終,軟件總會找到自己的出路,這可能是最簡單的理解方式。無論是超級計算機、個人電腦、手機還是遊戲主機,軟件總能適配目標系統併發揮最佳性能。這就是軟件工程師的厲害之處——他們極具創新能力,思維靈活,能夠找到解決方案。

我們的架構核心之一就是軟件的靈活性,這一點非常重要。而如果從美國市場來看,當前我們可以使用的GB200,其token生成速率約爲目前中國市場受管制產品的60 倍,這意味着兩者之間的性能差距非常明顯。

問題7

上個季度你形容Blackwell的需求“瘋狂”,這次你說是“非凡”,這兩個詞相比,你覺得哪個更準確?

我現在對Blackwell的感覺比上個季度還要更好。原因很簡單:

量產進展超預期,我們不僅按計劃推進,還超額完成了目標。

團隊表現極其出色,他們的執行力令人驚歎。

你可能還記得,我們在Blackwell的設計上曾遇到過一個小問題,這個問題在上個季度或更早時被發現。

我們的恢復過程非常順利,團隊的表現讓我深感自豪。因此,無論是從執行層面還是市場需求層面來看,我都對當前的情況感到非常滿意。

要知道,DeepSeek的表現太棒了!它的驚豔之處在於開源了世界一流的推理模型如今全球幾乎所有AI開發者都在使用它。

他們要麼直接將R1整合到自己的系統中要麼通過一種稱爲知識蒸餾(distillation)的技術,從R1中提取精華或者利用R1開源的技術來增強自己的AI模型,使其更加強大。

過去幾個月,全球AI技術水平得到了顯著提升。這讓我倍感興奮。

與此同時,對計算資源、推理時間以及測試規模化的需求正在大幅增長。這正是Grace Blackwell NVLink 72令人振奮的原因之一。

從整體來看,市場對計算能力的需求比以往更加旺盛,這一趨勢讓我同樣感到振奮。

(轉自:萬博新經濟觀察)

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10