CoreWeave再度搶佔先機,率先部署英偉達GB200系統,AI巨頭爭相入局。
英偉達今日在其博客上宣佈,AI雲計算提供商CoreWeave已成爲首批大規模部署英偉達GB200 NVL72系統的雲服務提供商之一。Cohere、IBM和Mistral AI已成爲首批用戶。
根據最新MLPerf基準測試,這些系統提供了前代H100芯片2-3倍的性能提升,將顯著加速大模型訓練和推理能力。
CoreWeave首席執行官Michael Intrator表示,這一成就既展示了公司的工程實力和執行速度,也體現了其對下一代AI發展的專注:
“CoreWeave的設計就是爲了更快速地行動——我們一次又一次地證明了這一點,始終是首批大規模運營最先進系統的公司。”
英偉達超大規模與高性能計算(HPC)副總裁Ian Buck表示:
“世界各地的企業和組織正在競相將推理模型轉化爲代理型人工智能應用,這將改變人們的工作和娛樂方式。”
“CoreWeave對英偉達GB200系統的快速部署提供了人工智能基礎架構和軟件,使人工智能工廠成爲現實。”
華爾街見聞此前提及,近年來英偉達和CoreWeave通過投資、供應和反向租賃等方式構建了“親子關係”,成就了後者的迅速崛起。2023年,英偉達承諾在四年內向CoreWeave支付13億美元,租回自己生產的芯片。
近日,CoreWeave還宣佈與OpenAI合作,進一步鞏固了其作爲AI基礎設施提供商的領先地位。
這一系列動作表明,在AI算力資源持續緊缺的背景下,能夠提供最先進芯片組的雲服務提供商將在市場競爭中仍佔據有利位置。
去年,CoreWeave就是首批提供英偉達H100和H200 GPU的供應商之一,也是最早演示英偉達GB200 NVL72系統的公司之一。
CoreWeave最近在採用英偉達GB200 Grace Blackwell超級芯片的AI推理測試中創下了新的行業記錄,這一成績已發佈在最新的MLPerf v5.0結果中。
值得注意是,在沒有特定優化Blackwell架構的情況下,相比前代英偉達Hopper GPU,GB200 NVL72服務器能幫助Cohere在1000億參數模型的訓練實現高達3倍的性能提升。
據介紹,通過進一步優化利用GB200 NVL72的大統一內存、FP4精度和72個GPU的NVLink域(每個GPU都連接起來協同運行),Cohere正獲得顯著更高的吞吐量,縮短首個令牌(computation tokens)和後續令牌的生成時間,提供更高性能、更具成本效益的推理。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。