DeepSeek又又開源了,這次拉爆GPU通信

智東西
02-25

作者|程茜

編輯|心緣

智東西2月25日報道,剛剛,DeepSeek開源周第二彈發佈,第一個用於MoE模型訓練和推理的開源EP通信庫,發佈不到一小時,GitHub Star數已上千。

DeepEP是爲混合專家(MoE)和專家並行(EP)量身定製的通信庫,其提供高吞吐量且低延遲的全對全GPU內核,這些內核也被稱爲MoE調度與合併。

高性能:支持用於節點內和節點間通信的NVLink和RDMA,以及用於非對稱域帶寬轉發的優化內核;

低精度運算:FP8支持;

延遲敏感推理:提供使用純RDMA的低延遲內核,以最大限度地減少推理解碼的延遲;

通信-計算重疊:引入基於鉤子的方法,不會佔用任何流式多處理器(SM)資源;

自適應路由和流量隔離:支持低延遲內核自適應路由,支持虛擬通道流量隔離。

其中,爲了與DeepSeek-V3論文中提出的組限制門控算法(group-limited gating algorithm)保持一致,DeepEP提供了一組針對非對稱域帶寬轉發進行優化的內核,例如將數據從NVLink域轉發到RDMA域。這些內核能夠實現高吞吐量,使其既適用於訓練任務,也適用於推理預填充任務。此外,它們還支持流式多處理器(SM)數量控制。

對於對延遲敏感的推理解碼任務,DeepEP包含了一組採用RDMA技術的低延遲內核,以最大程度地減少延遲。該庫還引入了一種基於鉤子的通信與計算重疊方法,這種方法不會佔用任何流式多處理器(SM)資源。

DeepSeek指出,DeepEP的實現可能與DeepSeek-V3論文中略有不同。

GitHub地址:https://github.com/deepseek-ai/DeepEP

具體性能方面:

在H800(NVLink的最大帶寬約爲160 GB/s)上測試常規內核,每臺設備都連接到一塊CX7 InfiniBand 400 Gb/s的RDMA網卡(最大帶寬約爲50 GB/s),並且遵循DeepSeek-V3/R1預訓練設置(每批次4096個Tokens,7168個隱藏層單元,前4個組,前8個專家(模型),使用FP8格式進行調度,使用BF16格式進行合併)。

在H800上測試低延遲內核,每臺H800都連接到一塊CX7 InfiniBand 400 Gb/s的RDMA網卡(最大帶寬約爲50 GB/s),遵循DeepSeek-V3/R1的典型生產環境設置(每批次128個Tokens,7168個隱藏層單元,前8個專家(模型),採用FP8格式進行調度,採用BF16格式進行合併)。

快速啓動要求:

下載並安裝NVSHMEM依賴項:

開發:

安裝:

網絡配置:

接口和示例:

DeepSeek發佈的推文一小時瀏覽量高達12萬,評論區下方開發者們直接進入誇誇誇模式:

“DeepSeek在MoE模型方面所實現的優化程度頗高,而MoE模型因其規模和複雜性而向來極具挑戰性。DeepEP能夠藉助像NVLink和RDMA這類尖端硬件,如此精準地處理相關任務,並且還支持FP8格式,這着實令人驚歎。”

“對NVLink和RDMA的支持,爲大規模的MoE模型帶來了變革性的影響。看來DeepSeek又一次突破了AI基礎設施的極限。”

還有人直接做了表情包:“跟着鯨魚找到魚。”

結語:深度探索開源宇宙DeepSeek還有三彈重磅發佈

從帶飛GPU推理速度的FlashMLA到開源EP通信庫,DeepSeek開源周第二大重磅發佈再次點燃AI圈的熱情。本週後續,DeepSeek還將開源三個代碼庫,或許會與AI算法優化、模型輕量化、應用場景拓展等相關,涵蓋多個關鍵領域。

期待接下來的三場技術盛宴,向開源者們致敬。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10