復刻DeepSeek的神話,還在繼續。
之前,UC伯克利的博士只用30美元,就復刻了DeepSeek中的頓悟時刻,震驚圈內。
這一次,來自荷蘭阿姆斯特丹的研究人員Raz,再次打破紀錄,把復刻成本降到了史上最低——
只要10美元,就能復現DeepSeek頓悟時刻!
Raz本人也表示,自己驚訝極了。
即使是一個非常簡單的強化學習設置,並沒有太多RL算法的複雜性(比如PPO、TRPO、GRPO等),也能在有限的計算資源下產生湧現的結果。
在具體設計過程中,他特別考慮強化學習中LLM中的應用和傳統強化學習問題(如機器人、Atari遊戲等)在狀態空間和動作空間的不同。
因此,Raz選擇從非常簡單的RL算法——Reinforce-Lite入手。
採用輕量級強化學習算法——Reinforce-Lite生成的推理過程之一。我們將一步步看到,端到端的強化學習微調模型如何表現出智能、回溯、自我反思、邏輯推理等跡象
結果,令人出乎意料的事情發生了:只用不到10美元的成本,他就在一個3B模型上覆刻了DeepSeek的頓悟時刻。
幾乎就像是這個3B模型本身就具備了做出驚人事情的潛力,我們需要的,只是通過正確的方式賦予它一定的自主性而已。
接下來,讓我們看一下Raz的博客,感受一下這次超經濟實惠的AI推理,是怎樣突破的。
我們能否在計算資源有限(只有48GB RTX6000顯卡和10美元)的情況下,讓一個3B模型具備回溯、自我反思、邏輯推理等推理能力?
研究人員猜測,通過強化學習也許能做到。
強化學習是最強大的學習算法之一,它一次又一次地爲我們帶來令人驚歎的成果。
DeepMind的AlphaGo、OpenAI的DOTA 2、MuJoCo和Atari實驗、LLM的RLHF對齊,以及最近DeepSeek全面佈局的RL技術,無比證明它的強大威力。
然而,由於RL有許多動態部分,一涉及到衆多組件,強化學習就變得複雜了。
在此過程中,強化學習需要精心設計重要元素,如合適的信用分配機制、演員-評論員的適當超參數調整、強化學習算法類型(基於模型/無模型)等,這就導致了強化學習在更廣泛的範圍內應用受限。
如果在LLM環境中使用強化學習,可能涉及的模型可以多達5個:
評判模型:用於計算價值函數
Reinforce-Lite:一個比PPO更簡單、更穩定且更高效的微調方案
3B模型端到端強化學習訓練的計算需求
由於涉及衆多組件,不僅帶來了計算負擔,還帶來了訓練穩定性方面的複雜性和挑戰。
因此,研究人員開始思考:能否從零開始重新構想整個算法,迴歸第一性原理?
他們的答案就是——一個簡單的替代方案,Reinforce-Lite。
這種方法消除了對替代目標比率和舊策略模型的需求,通過單一策略神經網絡來穩定訓練過程,同時,還能爲模型注入推理能力。
爲此,我們需要理解的第一個問題就是——
使用替代目標比率(如PPO/GRPO)是過度優化?
OpenAI vs DOTA 5v5:基於大規模強化學習訓練
在MuJoCo、Atari、Dota等傳統強化學習環境中,PPO對每個批次進行多次更新是至關重要的,這是因爲在這些環境中數據收集成本非常高昂,而重複使用樣本可以提高樣本效率。
然而在LLM中,這種方法既無必要,又會帶來巨大的計算開銷。
LLM可以並行生成多樣化的響應,自然形成豐富的數據集,因此就無需重複更新。
所有響應都可以使用相同的策略網絡生成,一旦在序列生成結束時獲得獎勵,就可以進行梯度反向傳播。
此外,在文本生成這樣的高維動作空間中,每個batch多次更新可能導致過擬合,而非有意義的策略改進。
相反,如果每個batch單次更新,再結合分組歸一化等技術,就可以在顯著降低計算成本的同時,保持訓練穩定性。
考慮到LLM訓練本身就需要大量資源,在不影響性能的前提下簡化優化過程,顯然是更有效的選擇。
從技術角度來看,這也消除了爲計算替代目標比率而保留舊策略模型的需求。
LLM強化學習與經典強化學習的區別
總之,在這個算法中——
移除KL散度,不需要參考模型 ❌ ——改用梯度裁剪。雖然不是自適應的方法,但能有效完成任務。
移除替代目標,不需要舊策略模型 ❌
使用分組相對獎勵進行優勢計算(類似DeepSeek的GRPO方式),不需要價值網絡 ❌
這樣,我們就得到了一個輕量級的強化學習算法。
通過以上簡化,優化問題最終就回歸爲經典的Reinforce算法——
Reinforce-Lite
在優勢計算方面,研究人員採用分組相對策略優化(GRPO)的歸一化技術,將每個問題的10個回應結果作爲一組,並通過其歸一化方法來降低梯度更新中的方差。
讓我們來看看它在PyTorch中的具體實現。
初始化一個經過指令微調的LLM,並通過合適的提示詞使其在
爲模型輸出定義一個獎勵函數(例如,在GSM8K基準中的正確率)。通過正則表達式從標籤中提取數值,並與數據集中的實際答案進行比較。
通過直接計算相對於獎勵的梯度來優化策略,無需使用替代損失函數。
採用分組相對歸一化優勢計算值,從而消除對批評模型的依賴。採用10作爲分組大小。
使用標準的對數概率梯度技巧對模型進行更新。
GSM8K 數據集
爲了驗證自己的假設,研究人員將使用GSM8K,這是一個包含小學數學問題及其答案的Grade School Math 8K數據集,格式如下:
問題:Natalia在4月份向她的48個朋友賣出了髮夾,而在5月份她售賣的髮夾數量是4月份的一半。Natalia在4月和5月總共售賣了多少個髮夾?
Natalia sold clips to 48 of her friends in April, and then she sold half as many clips in May. How many clips did Natalia sell altogether in April and May?
答案:Natalia在5月售賣了48/2 = <<48/2=24>>24個髮夾。Natalia在4月和5月總共售賣了48+24 = <<48+24=72>>72個髮夾。#### 72
Natalia sold 48/2 = <<48/2=24>>24 clips in May. Natalia sold 48+24 = <<48+24=72>>72 clips altogether in April and May. #### 72
雖然答案中就包含了完整的推理步驟,但讓研究人員感興趣的,只有###後的最終答案。
對此,研究人員引導策略模型,以
這更像是一個蒙特卡洛問題——在每個回合結束時,才能獲得獎勵。
獎勵建模
研究人員把獎勵機制設計得很簡單易懂,對於策略模型:
答案錯誤時,給予負獎勵-1
答案正確時,給予正獎勵+1
訓練設置
接下來,研究人員使用Reinforce-Lite算法,在RTX A6000顯卡上訓練了3B模型,訓練時間爲12小時,並採用大小爲10的分組。
在訓練初期,可以觀察到:模型不斷嘗試增加輸出序列/輸出token的長度,但會經常遇到內存溢出(OOM)問題,這就限制了模型嘗試更長的推理過程,並從中有效學習。
獎勵圖表展示的是分組響應的平均得分。理想情況下,平均值越接近1,表示模型在大多數採樣響應中的準確率越高。
在這次實驗中,研究人員只訓練了數百次迭代,可以觀察到當策略模型嘗試不同策略時,得分會出現一定波動。
這種波動可以通過熵正則化來平衡探索與利用之間的關係,這是他們未來探索的一個方向。
對比測試Reinforce-Lite和Instruct模型
研究在GSM8K數據集上評估了Reinforce-Lite,發現在有限訓練時間內,Reinforce-Lite相比指令模型在得分上實現了小幅提升。
具體來說,Meta Llama 3.2模型提升了2.0%(從70.5提升至72.5),而在FP16格式下運行的Phi 3.5 Instruct則提升了0.6%(從83.4提升至84.0)。
觀察一些推理軌跡後可以發現,經過Reinforce-Lite微調的模型展現出了多種推理能力,包括:
邏輯思維
搜索策略
結果驗證
通過表格進行中間計算
試錯方法等
注意!這些推理軌跡,在常規的指令模型中均未觀察到。
比如在下圖中,模型展現出了基本的數學推理能力。它能夠通過代數表達式設立問題,並通過解方程來求解。
過程中,它能識別出不合理的解,在原方案不可行時選擇調整解決方案,最終還能通過比較不同選擇的成本,來做出最優決策。
在這道題中,模型表現出的處理包含條件推理和糾錯的能力,也令人印象深刻。
它首先設定了問題背景,計算派對開始時的總人數。然後根據已知條件(總共40人,1/4人離開),計算出有10人離開派對。
然而,在計算離開的女性人數時,模型居然得出了一個負數,它意識到了自己的推理中,一定出現了邏輯錯誤。
爲此,它重新審視了情況,修正了自己的推理,正確計算出派對上剩下了8名女性,從而得出正確答案。
這道題中,模型設定初始繃帶數量爲x,根據給定條件將繃帶數量的變化轉換爲代數方程,但解出的方程結果是x=-6。
它意識到自己的錯誤後,回顧了之前的步驟,識別出自己在計算第三天的繃帶使用量時犯了錯。修正方程後,它重新計算出了正確結果。
整個過程中,它展現出了較強的自我糾錯和邏輯推理能力,能在複雜計算過程中發現並修正問題。
關鍵要點總結
總結來說,這項研究主要有以下發現。
結構化推理能力提升
從生成的序列中可以觀察到,經過RL微調的模型在評估得分上實現了小幅提升。
簡化算法複雜度,無需PPO的複雜性
研究表明,對LLM進行微調只需要一個策略網絡即可,無需採用PPO的複雜機制。
優化計算效率
Reinforce-Lite作爲一個計算友好型算法,支持端到端的RL訓練,同時顯著降低了訓練複雜度。
增強模型自主性
算法成功地賦予了LLM自主能力,讓模型會通過嘗試不同策略來獲取獎勵。
更長的推理回合,需要更多內存
隨着訓練的進行,可以發現模型傾向於進行更長的推理過程,但在使用48GB GPU訓練3GB模型(FP16)時,如果超過1024個token,就會頻繁出現內存溢出問題。
在沒有KL散度的情況下確保穩定性
研究人員發現,使用簡單的梯度裁剪就能有效替代KL散度計算,這是一種高效的替代方案,用於防止策略偏離。在整個訓練過程中,模型策略保持穩定,未出現劇烈波動。
巧的是,最近來自微軟亞洲研究院的一項工作,也證明了RL的巨大潛力——通過有效且穩定的RL訓練後,一個7B模型,居然就發展出了反思、驗證和總結的高級推理技能!
而這些技能,在邏輯語料庫中是完全缺失的。
受DeepSeek-R1成功的啓發,研究團隊探索了基於規則的強化學習(RL)在大規模推理模型中的潛力。
爲了分析推理機制,他們選擇了具有可控複雜度和直接答案驗證方式的“合成邏輯謎題”作爲訓練數據。
在此過程中,團隊取得了一些關鍵性的技術突破,並促成了有效且穩定的RL訓練:
一個着重強調思考和回答過程的system prompt
一個用於懲罰取巧輸出的嚴格格式獎勵函數
一個能實現穩定收斂的簡單訓練方案
其中,訓練框架採用REINFORCE++算法和來自DeepSeek-R1的獎勵設計進行後訓練。
隨着RL訓練的進行,可以觀察到模型自然地分配更多的訓練步驟用於推理。這種計算擴展從生成數百個token擴展到數千個token,使其能夠更深入地探索和完善其思維過程。
結果顯示,只有70億參數的Qwen2.5-7B,在經過5K個邏輯問題的訓練後,就發展出了一些在邏輯語料庫中原本不存在的高級推理技能——如反思、驗證和總結能力。
研究中,考驗模型的這道邏輯題是這樣的。
問題:一個非常特殊的島嶼上只住着騎士和騙子。騎士總是說真話,騙子總是說謊。你遇到兩位島民:Zoey和Oliver。Zoey說:“Oliver不是騎士。”Oliver說:“Oliver是騎士且Zoey是騙子。”請問,誰是騎士,誰是騙子?
正確答案:(1)Zoey是騙子;(2)Oliver是騎士。
這個“騎士與騙子”謎題,因其合成設計和邏輯精確性而非常適合進一步分析。
首先,謎題對於模型來說都是未見過大數據,非常適合用來測試泛化能力。
其次,通過改變字符數量(2到8個)和邏輯運算的複雜性(1到4種布爾運算符組合),可以調節難度。
而且,每個謎題都有一個單一、明確的正確答案,正確性由生成算法保證。解答需要嚴格的演繹推理,因此減少了獎勵作弊的風險。
總之,每個謎題都遵循正式規則構建,能確保每個問題都有一個獨特的解決方案,並可以確定性地驗證。這消除了自然語言任務中常見的模糊性,使我們能夠清晰地區分真正的推理能力和表面上的記憶。
在獎勵建模中,研究在模型輸出中不斷檢測作弊行爲,並不斷改進獎勵設計。
最終,他們設計出了一種幾乎無法作弊的基於規則的獎勵系統,僅包含兩種獎勵類型:格式獎勵和答案獎勵。
以下就是不同的推理模型和通用模型在不同難度的K&K邏輯謎題上的表現。
在RL訓練後,可以在模型中觀察到以下湧現的行爲。
1. 會出現猶豫和自我驗證
在思考環節,模型會不時使用“我不是完全確定,讓我們重新檢查這一步”這類反思性表達。
這種自我審視的行爲特徵在預訓練階段是完全不存在的,而是通過獎勵正確答案、懲罰錯誤答案的強化學習機制逐步培養形成的。
2. 多輪徑探索和回溯
經過RL訓練後,模型會主動提出多個解決方案(“讓我們測試兩種可能性”),並通過回溯來檢查解決方案的一致性。
3. 應用公式
儘管訓練數據集中並未包含,但模型不僅能夠通過系統性試錯方法解決謎題,還自主整合了形式邏輯推理能力(比如運用“如果P,則Q”的邏輯蘊含公式),這種推理模式與人類的問題解決方式高度相似。
4.忽然開始說中文
模型在分析問題陳述時會臨時插入中文表達,隨後又能自然地轉換爲英語來提供解決方案。
這一現象表明,模型正在使用語言混合機制作爲一種潛在的備選處理策略,或是形成了某種特殊的內部表徵模式。
在具有挑戰性的數學基準測試AIME和AMC上,模型展現出了卓越的泛化能力——成績分別提高了125%和38%。
這種跨領域泛化能力表明,RL訓練的推理啓發式方法發展出了抽象的問題解決模式,而不是依賴於特定領域的模式匹配。
所以,這項研究的訓練期間,也出現“頓悟時刻”了嗎?
換句話說就是,在強化學習過程中,模型的推理能力是否會發生顯著的飛躍,出現多步驗證或反思,而且這些行爲不是在訓練語料中明確植入的,而是模型與RL環境的互動所自然產生的?
研究人員發現,模型並沒有出現“等一下,等一下”這樣特定的語言表述,但圖4顯示出,它在第10步時表現出了一些複雜的推理行爲(例如自我反思、探索、驗證、總結)。
由此,研究人員的結論是,RL學習過程可能沒有突如其來的“頓悟時刻”——複雜的推理行爲並不是在某個特定的訓練步驟中突然出現的。
1. 反思性詞彙(如“檢查”和“驗證”)的頻率緩慢增加(a)-(c);2. 會話性短語(例如“讓我們”)和謹慎詞彙(例如“還”)變得更加頻繁(d)-(e);3. 中文詞彙開始出現在英文回覆中(f)。所有這些詞彙的頻率都在穩步發展,沒有突然的跳躍,表明可能不存在明顯的“頓悟時刻”
除了上述技術貢獻外,研究還有幾個有趣的發現:
更長的回答並不能保證更好的推理。長度本身不是評估訓練時間的有效指標。最有效的推理來自最短路徑。
語言混合會阻礙推理。這一觀察強調了在獎勵建模中需要語言一致性懲罰。
增加“思考”token確實有幫助。RL訓練自然地提高了與反思相關詞彙的頻率,表明某些token頻率與性能之間存在相關性。
監督微調(SFT)依賴記憶;RL實現泛化。SFT嚴重依賴記憶,往往導致表面的捷徑學習,而RL則在最小依賴數據集結構的情況下自我演化。
冷啓動是一個優勢,但非必需。無論是從基礎模型還是指令模型開始,訓練動態都保持驚人的相似性,儘管後者表現略好。
課程學習仍然重要。在固定的數據篩選比例下,精心設計的課程學習方法總是優於隨機打亂。
本文來源:新智元,原文標題:《10美元成功復現DeepSeek頓悟時刻,3B模型爆發超強推理!微軟論文實錘湧現》
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。