專題:DeepSeek爲何能震動全球AI圈
來源:玩亦可及
2025年1月20日,杭州深度求索人工智能基礎技術研究有限公司正式發佈了其最新研發的高性能AI推理模型——DeepSeek R1。該模型在數學、代碼和自然語言推理等任務上表現卓越,性能直接對標OpenAI的o1正式版,同時以開源形式向全球開發者開放,並使用MIT協議開源,支持免費商用,無需申請授權,爲LLM大模型開源世界又補給了滿滿一倉庫彈藥。
好巧不巧,以文本處理和輸出見長的另一家國內大模型公司——月之暗面,也發佈了Kimi k1.5推理模型,同樣號稱比肩OpenAI o1。一個開源,一個閉源,國產大模型技術,似乎和世界頂級水平正在拉近。
擴展閱讀:
DeepSeek R1的核心優勢
DeepSeek R1的最大亮點在於其通過強化學習(RL)技術顯著提升了模型的推理能力,且僅需極少量標註數據即可實現高效訓練。與OpenAI的o1相比,R1在多個基準測試中表現優異,同時價格僅爲o1的幾十分之一,具有極高的性價比。
強化學習驅動的推理能力
R1在後訓練階段大規模應用了強化學習技術,無需依賴大量監督微調(SFT)數據,即可顯著提升模型的推理能力。這一創新方法不僅降低了訓練成本,還使模型在複雜任務中表現出色。
長鏈推理與模型蒸餾
R1採用了長鏈推理(Chain-of-Thought, CoT)技術,能夠逐步分解複雜問題,並通過多步驟邏輯推理解決問題。此外,R1支持模型蒸餾,開發者可以將其推理能力遷移到更小型的模型中,滿足特定場景需求。
開源與靈活的許可證
R1遵循MIT License開源協議,允許用戶自由使用、修改和商用。同時,DeepSeek還開源了R1-Zero和多個蒸餾後的小模型,進一步推動了AI技術的普及與創新。
性能評測對比
以下是DeepSeek R1與其他主流模型在多個基準測試中的表現對比:
模型 | AIME 2024 (%) | MATH-500 (%) | Codeforces Elo | MMLU (%) | GPQA Diamond (%) |
---|---|---|---|---|---|
DeepSeek R1 | 79.8 | 97.3 | 2029 | 90.8 | 71.5 |
OpenAI o1-1217 | 78.5 | 96.8 | 2015 | 91.2 | 70.8 |
DeepSeek-V3 | 68.7 | 89.4 | 1950 | 85.6 | 65.3 |
Qwen2.5-32B | 55.5 | 72.6 | 1800 | 78.4 | 60.2 |
Llama3-70B | 58.3 | 75.1 | 1825 | 79.8 | 61.5 |
數據來源:
R1系列模型及其蒸餾版本的性能表現
DeepSeek此次發佈了R1-Zero、R1以及多個蒸餾後的小模型,以下是它們的性能對比:
模型 |
AIME 2024 (%) | MATH-500 (%) | LiveCodeBench (%) |
---|---|---|---|
DeepSeek R1-Zero | 71.0 | 89.7 | 55.2 |
DeepSeek R1 | 79.8 | 97.3 | 57.2 |
R1-Distill-Qwen-1.5B | 65.4 | 85.2 | 52.8 |
R1-Distill-Qwen-7B | 68.9 | 88.6 | 54.3 |
R1-Distill-Qwen-8B | 70.2 | 89.1 | 55.0 |
R1-Distill-Qwen-14B | 72.6 | 90.5 | 56.1 |
R1-Distill-Qwen-32B | 72.6 | 94.3 | 57.2 |
R1-Distill-Llama-70B | 70.8 | 93.5 | 56.8 |
Qwen2.5-32B (原始) | 55.5 | 72.6 | 45.0 |
Llama3-70B (原始) | 58.3 | 75.1 | 47.5 |
數據來源:
從表中可以看出,R1蒸餾後的小模型在推理能力上顯著超越了原始的Qwen2.5和Llama模型,展現了R1推理模式的高效遷移性。
應用開發者的視角:DeepSeek R1與V3的本地部署與使用
1. DeepSeek R1蒸餾模型的本地部署
DeepSeek R1蒸餾出的1.5B、7B、8B、14B等小模型非常適合在本地部署,尤其適合資源有限的中小企業和開發者。以下是常用的部署工具和方法:
目前DeepSeek R1蒸餾出來的這6個小體積模型,已經上線到Ollama官網。已經在本機安裝Ollama的朋友,可以直接通過命令行工具,用ollama pull或ollama run命令下載和運行這些模型。我個人剛把原始版的Qwen2.5 7B刪除,安裝經過DeepSeek R1蒸餾過的Qwen 7B模型。我的7800XT顯卡有16GB顯存,FP8或INT8量化後,跑14B參數的模型應該也不是問題。
2. FP8與INT8量化方式
量化是降低模型顯存佔用和計算開銷的有效方法,以下是FP8和INT8量化的實現方式:
3. DeepSeek R1與V3的應用場景對比
DeepSeek R1與月之暗面Kimi k1.5的對比
1. 設計與功能
2. 參數與性能
3. 優缺點與應用場景
總結
DeepSeek R1的發佈標誌着國產AI技術的又一次重大突破。其強大的推理能力、開源生態以及高性價比的API服務,爲全球開發者和企業提供了全新的選擇。隨着R1及其蒸餾版本的廣泛應用,AI技術的普及與創新將迎來新的高潮。
責任編輯:何俊熹
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。