百度官宣發文心大模型4.5,中國AI大模型競爭加速趕超美國

藍鯨財經
03-03

文|光錐智能 白鴿 魏琳華 

2月28日凌晨,OpenAI發佈最新GPT-4.5模型,該產品一經上線,就備受網友吐槽,吐槽的點集中在價格貴得離譜,反應又特別慢。

其中,X 網友 @Colin Fraser 實測的一道邏輯謎題出現嚴重錯誤。價格方面,GPT4.5 API價格不僅遠超DeepSeek R1,輸入每百萬Tokens75 美元的價格甚至比GPT-4o的2.5美元還貴30倍。

“GPT4.5的定價非常高,如果這些模型沒有顯著改進,我會感到失望。”X 網友 Casper Hansen 發帖說道。

可以看到,OpenAI此次發佈會略顯倉促,甚至OpenAI CEO奧特曼因需要照顧剛出生的孩子沒有到達發佈會現場。而如此倉促的背後,或許是受到了來自中國大模型趕超的壓力。

2月28日,百度正式官宣將於3月16日上線文心大模型最新版4.5,不僅在基礎模型能力上有大幅提升,且具備原生多模態、深度思考等能力。此前,百度還宣佈將從6月30日起,將文心4.5開源。

前段時間火出圈兒的DeepSeek發佈的DeepSeek-R1大模型,不僅在數學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版,更重要的是對算力資源的極致利用,讓成本做到了最低。這也令國外同行在《自然》雜誌上驚呼:“這太瘋狂了,完全出乎意料”。

而這第二場競賽的關鍵,除了比拼大模型的基礎能力外,更考驗對成本的控制和開源生態的建設。畢竟,這些綜合因素,都是關乎大模型是否能夠真正實現大規模落地應用的根本。

事實上,此前中國的大模型一直被看作是OpenAI的追隨者,從大語言模型,到多模態大模型,再到推理大模型,都緊跟在OpenAI之後。

但現在,“中國在生成式AI領域正在趕超美國,甚至在視頻生成等領域,中國似乎已處於領先地位。”著名人工智能研究學者、DeepLearning.AI創始人吳恩達在博客中如此寫道。

從追趕到超越,基礎大模型的開年之戰

放在半年前,OpenAI每發佈一次大模型,便會引起圈內的一次“地震”。但這次,定價昂貴、性能一般的GPT-4.5,讓OpenAI遭遇了第一次在模型上的滑鐵盧。

GPT-4.5的“失靈”,正是中美大模型實力博弈的一個註腳,它映射出當前大模型圈的地位變更——和開啓狂卷模式的其他公司相比,OpenAI能帶來的技術突破越來越有限,且極其沒有性價比。

與之相反的則是國內大模型公司們,正集體在2025年密集“秀肌肉”。2025開年以來,即使在中國人最忙碌的春節前後,大模型公司們仍然保持着極快的速度發佈新的大模型。

不同於2022年底開始,國內大模型爭分奪秒,只爲和海外公司縮小差距的第一場競爭,這一次,由國內發起的大模型“第二場競速”,目標直指在各方面超越海外的頂尖成果。

從性能、訓練成本、推理成本再到模型架構等方面橫向對比,這是一次中國大模型界的“百花齊放”:

火爆出圈的DeepSeek,不僅性能直追OpenAI的推理模型,還把訓練及推理成本打了下來;MiniMax的新模型不再遵循海外公認的Transformer架構,而是改成了更利於上下文記憶的線性注意力機制;月之暗面的推理模型K1.6尚未正式發佈,但已經在基準測試平臺LiveCodeBench上登頂第一,超過了OpenAI的o3-mini。

在技術無限縮小甚至超越的基礎上,中國大模型開始找回自己的主場優勢,對於Day 1就在思考落地問題的大模型公司來說,誰能在技術優勢的基礎上,找到落地場景的最優解,就能贏得接下來的應用卡位賽。

對於既有流量、又有生態優勢的大廠來說,場景化本就是他們的優勢。而在DeepSeek爆火後,他們在這場大模型之戰中放出了相當有誠意的動作。

以百度爲例,它算得上是大廠梯隊中最下血本的一家。

2月13日,百度宣佈文心一言將於4月1日0時起全面免費,所有PC端和APP端用戶均可體驗文心繫列最新模型,這其中就包括要在3月16日正式上線的文心一言4.5。在OpenAI大舉商業化旗幟,開售200美元會員月費的當下,百度能把最頂尖的模型免費拿出來,已經夠有誠意。

在免費的基礎上,百度還準備把文心一言4.5開源。

在這場席捲而來的大模型之戰中,李彥宏快速找到了卷模型背後的關鍵問題。

“我想強調的是,無論開源閉源,基礎模型只有在大規模解決現實問題時,才具備真實價值。”李彥宏說。

追趕海外頂尖技術的同時,中國大模型已經跳出了固有的競爭框架,在這場中美大模型的博弈中,大模型公司們正在思考彎道超車的可能性。

大模型開源背後,中國企業對成本的極致優化

春節後的一個月,在中國大模型市場掀起了一股DeepSeek接入潮。截至目前,已經有近200多家企業官宣將深度接入DeepSeek大模型產品。

不僅是百度AI搜索、百度文庫等C端產品,B端的雲廠商也在MaaS服務平臺中,集成DeepSeek大模型,爲客戶提供相關API調用服務,還考慮圍繞DeepSeek推出私有化部署的方案。

比如,百度智能雲千帆接入 DeepSeek-R1/V3模型,上線首日就有超1.5萬家客戶通過千帆平臺進行模型調用。而百度智能雲旗下客悅、曦靈、一見、甄知四款大模型應用產品,正式上線接入DeepSeek模型的全新版本。

除了應用層外,百度在基礎設施層面也深度適配了DeepSeek,如基於崑崙芯P800,百度百舸發佈部署 “滿血版DeepSeek R1+聯網搜索” 服務,能夠爲企業提供及時、準確的信息支持。

針對企業私有化部署需求,百度智能雲發佈DeepSeek一體機解決方案,在私有化部署層面搭載崑崙芯P800的百舸、千帆、一見一體機產品,可支持在單機環境下一鍵部署DeepSeek R1/V3全系列模型,提供開箱即用的便捷體驗,在確保性能與安全合規的情況下,能夠助力企業快速實現模型部署落地。

目前,針對企業私有化部署需要,除百度智能雲外,其他雲廠商也紛紛在部署相關DeepSeek一體機解決方案,但相比較來說,自研GPU芯片的百度,無疑更具有成本優勢。

事實上,此次百度宣佈大模型開源和免費的底氣,就來源於從底層基礎設施,到上層工具鏈,以及大模型推理應用的體系化技術創新。

從底層基礎設施來看,百度自研的崑崙芯性價比極高,得益於崑崙芯的成本優勢,百度智能雲率先點亮了首個國產萬卡算力集羣,能夠爲大模型的部署和應用提供穩定的算力支持。

據外部猜測,此次文心一言全面開放功能,背後最大的原因之一是推理成本不斷降低。

該分析人士表示,百度在模型推理部署方面有比較大的優勢,尤其是在飛槳深度學習框架的支持下,其中並行推理、量化推理等都是飛槳在大模型推理上的自研技術。飛槳和文心的聯合優化可以實現推理性能提升,推理成本降低。

當然,大模型最關鍵的,還在於找到具體的應用場景,能夠實現真正的應用落地。

有數家做企業服務的銷售人員對光錐智能表示:“大模型來了之後,諮詢的企業增多,但真正落地應用的比較少。”比如在企業OA系統中,集成DeepSeek大模型,更多的是爲企業提供知識問答能力,在一些智能客服場景中,大模型的能力優勢更爲凸顯。

就像百度在客悅、曦靈、一見、甄知四款自身應用產品中,上線接入DeepSeek模型的新版本,業務以企業智能外呼、數字人視頻腳本生成、視覺智能分析、知識管理等場景爲主。

無疑,依託全棧自研四層技術架構(雲、深度學習框架、模型、應用),百度能夠實現端到端優化,不僅大幅提升了模型訓練和推理的效率,還進一步降低了綜合成本。

總的來說,當前大模型技術發展如此之快,則必須要持續投入,以確保處於技術創新的最前沿。

“我們仍需對芯片、數據中心和雲基礎設施進行持續投入,來訓練更好更智能的下一代模型。”李彥宏說道,爲此,需要使用更多的算力來嘗試不同的路徑。也許,在某個時刻,你會找到一條捷徑,比如說只需600萬美元就能訓練出一個模型,但在此之前,你可能已經花費了數十億美元來探索,哪條路纔是花費這600萬美元的正確途徑。

總之,只要用戶/客戶想要,中國公司沒有做不到。

事實上,於企業自身來說,前期研發成本投入是固定項,只有當技術真正投向應用,讓更多的用戶來使用這個技術,才能真正實現規模經濟優勢。

而擴大規模經濟優勢的同時,只有通過技術降本,免費和降價才能得以持續。

李彥宏曾表示:“今天,當我們談論大型語言模型時,12個月內推理成本基本上可以降低90%以上成本。並且,大模型的性能也越來越好。”

無疑,當大模型推理應用成本降得足夠低,就能夠讓大模型真正走向千行百業,也勢必將真正地讓中國生成式AI實現彎道超車。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10