《大行》交銀國際:國產大模型或加速國產芯片使用 利好中芯(00981.HK)及華虹01347.HK)

阿斯達克財經
02-06

交銀國際發表報告表示,1月22日前後,杭州深度求索公司DeepSeek發佈兩款開源人工智能大模型(DeepSeek-R1/DeepSeek-R1-zero)並取得與海外領先模型相似或者更好的性能。兩款模型基於之前發佈的DeepSeek-V3, 其訓練僅用280萬小時的英偉達H800GPU算力(約560萬美元)。該行認爲,國產高效開源模型的興起意味着大模型的訓練和推理成本或有大幅度降低。
總結DeepSeek-V3和DeepSeek-R1在算法架構、預訓練、後訓練和蒸餾提煉階段的創新,該行發現DeepSeek結合硬件、算法和系統,使用定製化的PTX等底層算法達到流水線並行,同時優化了儲儲,減少了通信的報頭開銷。因爲直接調用硬件,該行認爲這些創新或不能通過高級語言實現,這或意味着英偉達(NVDA.US)  CUDA的競爭壁壘有所鬆動。

交銀國際指,美國政府之前對華的芯片限制非但沒能起到作用,反而進一步促進了中國人工智能領域的發展。DeepSeek-V3訓練過程僅用了不到280萬小時英偉達H800芯片算力,按照每小時2美元計算,總體訓練成本小於560萬美元。該行認爲,決定中國人工智能發展的因素將會是國產自主創新,這包括AI大模型算法的發展和半導體硬件的國產替代。國產AI行業都會積極需求國產硬件支持,從而長期利好半導體行業的國產替代進程。
從硬件性能上看,包括華爲升騰(Ascend系列)在內的國產算力芯片已經接近或者達到英偉達Hopper系列的算力芯片產品,事實證明英偉達最高階的Blackwell系列芯片不一定會是阻礙國產大模型建設的關鍵。更重要的是,英偉達最重要的CUDA護城河似乎亦有鬆動的跡象。根據DeepSeek-V3的技術文檔, 該行發現訓練模型(1)使用了定製的PTX(Parallel Thread Execution)等底層算法達到流水線並行(pipeline parallelism)和(2)優化了儲儲方式和減少通信過程中的報頭開銷等技術技巧。這些算法或通過低級語言(機器碼、彙編語言 等)實現。通過繞開英偉達CUDA(通過高級語言調用),這些算法或從一定程度上規避了英偉達CUDA這一核心競爭力。因此該行認爲,國產大模型或加速國產芯片的使用。
交銀國際認爲,模型門檻降低在利好國產算力芯片的同時,或對整個國產半導體產業鏈的業務產生積極影響,包括利好國產晶圓代工公司中芯國際(00981.HK) (“買入”評級)和華虹半導體(01347.HK) (“買入”評級)的產能利用率等業務指標,以及利好國產半導體設備,包括北方華創(002371.SZ) 中微公司(688012.SH) 等的設備需求。
相關內容《大行》浦銀國際:AI大模型成本大幅下降 國產化全方位加速
此外,該行對於端側部署AI的前景較此前更爲樂觀,雖然對於具體需求增長的數量和消費者大規模換機的時機尚不確定。該行建議投資者關注AMD(AMD.US)  (“買入”評級)、英偉達(NVDA.US)  (“買入”評級)和英特爾(INTC.US)  端側計算芯片業務,同時關注兆易創新(603986.SH) 、聯發科(02454.TW)等對端側敞口較大的半導體標的,以及蘋果(AAPL.US)  、小米(01810.HK) 、聯想(00992.HK) 等智能手機和個人電腦OEM。相對於蘋果等海外廠商在人工智能模型(特別是中文模型)上的執行能力,該行更看好國產智能手機OEM。(wl/k)(港股報價延遲最少十五分鐘。沽空資料截至 2025-02-06 12:25。) (A股報價延遲最少十五分鐘。) (美股爲即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)

AASTOCKS新聞

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10