百度在3月31日發佈業界首個基於全新互相關注意力(Cross-Attention)的端到端語音語言大模型,實現超低時延與超低成本,在電話語音頻道的語音問答場景中,調用成本較行業均值下降約50%-90%。當日,文小言宣佈品牌煥新,率先接入該模型,還帶來多模型融合調度、圖片問答等功能升級。
接入全新的端到端語音語言大模型後,文小言不僅能支持更擬真的語聊效果,而且支持重慶、廣西、河南、廣東、山東等特色方言。據介紹,語音大模型具備極低的訓練和使用成本,極快的推理響應速度,語音交互時,可將用戶等待時長從行業常見的3-5秒降低至1秒左右。
更新後的文小言還支持“多模型融合調度”,通過整合百度自研的文心X1、文心4.5等頂尖模型,並接入DeepSeek-R1等第三方優質模型,實現了多模型間的智能協同。用戶可以選擇“自動模式”,一鍵調用最優模型組合,也可根據需求靈活選擇單一模型完成特定任務,大幅提升響應速度與任務處理能力。
同時,文小言還加強了圖片問答功能,用戶拍攝或上傳圖片,以文字或語音提問即可直接獲取深度解析。例如,拍攝一道數學題可實時生成解題思路與視頻解析;上傳多款商品圖可對比參數、價格,輔助購物決策;拍攝杯子設計圖後,AI可自動解析風格並生成同款手機殼、支架等周邊產品。