IT之家 3月11日消息,隨着DeepSeek R1的推出,強化學習在大模型領域的潛力被進一步挖掘。Reinforcement Learning with Verifiable Reward(RLVR)方法的出現,爲多模態任務提供了全新的優化思路,無論是幾何推理、視覺計數,還是經典圖像分類和物體檢測任務,RLVR都展現出了顯著優於傳統監督微調(SFT)的效果。
然而,現有研究多聚焦於Image-Text多模態任務,尚未涉足更復雜的全模態場景。基於此,通義實驗室團隊探索了RLVR與視頻全模態模型的結合,於今日宣佈開源R1-Omni模型。
R1-Omni的一大亮點在於其透明性(推理能力)。通過RLVR方法,音頻信息和視頻信息在模型中的作用變得更加清晰可見。
比如,在情緒識別任務中,R1-Omni能夠明確展示哪些模態信息對特定情緒的判斷起到了關鍵作用。
爲了驗證 R1-Omni 的性能,通義實驗室團隊將其與原始的 HumanOmni-0.5B 模型、冷啓動階段的模型以及在 MAFW 和 DFEW 數據集上有監督微調的模型進行了對比。
實驗結果顯示,在同分布測試集(DFEW 和 MAFW)上,R1-Omni相較於原始基線模型平均提升超過35%,相較於SFT模型在UAR上的提升高達10%以上。在不同分佈測試集(RAVDESS)上,R1-Omni同樣展現了卓越的泛化能力,WAR和UAR均提升超過13%。這些結果充分證明了RLVR在提升推理能力和泛化性能上的顯著優勢。
IT之家附R1-Omni開源地址:
論文:https://arxiv.org/abs/2503.05379
Github:https://github.com/HumanMLLM/R1-Omni
模型:https://www.modelscope.cn/models/iic/R1-Omni-0.5B
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。