英偉達再次暴跌,但這個機會要把握住

上觀新聞
02-28

  英偉達再次暴跌。

  超8%的下跌幅度,在K線圖上非常顯眼。這一科技巨頭的市值,也在當地時間2月27日再次跌破3萬億美元。

  實際上,進入2025年,英偉達的市值已經跌超10%。2025年的上一次大跌是1月27日,英偉達大跌近17%,市值一個交易日蒸發近6000億美元。而這背後的一大原因,正是DeepSeek的橫空出世,讓英偉達的發展邏輯受到了質疑。

  一直以來,AI大模型最爲倚重的,是算力。所以,以前AI發展的基本邏輯就是——想要智能水平高,就要算力高,於是就需要最高級的GPU。那麼,壟斷GPU市場的英偉達,顯然價值會越來越高。

  直到DeepSeek的出現。

  這個新來者不但性能和世界目前頂尖的GPT-4o等大模型不相上下,同時又比他們更“便宜”。相比於OpenAI訓練ChatGPT-4所花費的高達7800萬美元的成本,DeepSeek大模型訓練成本不到600萬美元,是前者的5%—10%;而在推理成本方面表現更加優異,DeepSeek大概是GPT-4o的三十分之一。

  由此一來,被DeepSeek顛覆的不止全球AI產業格局,還有AI發展的基本邏輯。

  很好理解,成本一降低,訓練大模型就不再需要那麼多高端GPU了,那麼此前高歌猛進的英偉達當然會受到影響。也就是說,對於芯片的需求肯定存在,但是不是最高級的芯片,還要不要那麼多,可能就不好說了。市場甚至開始質疑,未來在英偉達芯片和開發上花費數千億美元的必要性。

  這其實有點像當年的發動機,想要更快的速度,就要更大馬力的發動機,各家廠商都拼命卷大馬力,結果,電機直接在速度上甩開了發動機。

  但生意人就是生意人,黃仁勳沒有承認這一影響,反而認爲,DeepSeek-R1的發佈對AI市場是有利的,它不僅不會減少對計算資源的需求,反而會加速AI的採用。因爲新的推理方法會讓AI“一步步地思考怎樣更好地回答問題”,所以它的計算消耗是過去的100倍,而下一代AI會比現在的大模型多幾百萬倍的計算量。

  聽起來有些勉強,市場半信半疑。況且,作爲科技龍頭,華爾街對於英偉達的標準極爲苛刻,稍有風吹草動,就會出現波動。英偉達在2月27日發佈的最新財報儘管數據稍稍超出預期,但市場認爲仍然不夠亮眼。

  當然,英偉達仍然幾乎壟斷着GPU市場。一時的暴跌,就下結論還爲時過早。但在英偉達暴跌、國內市場看熱鬧的同時,有一個現象值得關注,那就是英偉達特供中國市場的性能降級芯片,開始成爲市場裏跑DeepSeek的新選擇。

  而這個機會,本來應該是國產芯片接住。

  此前,國產算力芯片發展艱難的一個重要原因是“性能不足”。但現在,門檻降低了。

  東方證券認爲,相較於英偉達先進算力,國產算力的性能短板劣勢有望在推理需求階段得到一定緩解。此前當算力需求主要集中在訓練階段時,英偉達系列芯片以強算力、高通信帶寬和大HBM容量,成爲了行業的主導性廠商,而在推理階段,尤其是對私有化部署的AI算力而言,其對計算性能和集羣通信速度的追求將低於訓練階段,而DeepSeek模型的算力消耗較低、蒸餾後的小模型需要的閃存容量較小,也與國產AI芯片的情況更加匹配。因此,在推理階段,國產算力芯片的性能劣勢有望得到緩解,而較低的售價則對用戶而言更具吸引力,國產算力芯片以及基於國產芯片的服務器廠商有望迎來更多的需求增長。

  目前,華爲升騰,海光信息、沐曦、天數智能、摩爾線程、壁仞等多家國產AI芯片都完成了適配DeepSeek模型。

  但還不夠。人們更希望看到的是,國產芯片能夠迅速接受這一市場,幫助中國一定程度上減少對海外硬件的依賴。

  所以,不管英偉達扛不扛得住DeepSeek的衝擊,當下最重要的,是國內的芯片廠商們要加把勁了。

(文章來源:上觀新聞)

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10