4月25日,Create2025百度AI开发者大会在武汉隆重举办。百度创始人李彦宏发表了题为《模型的世界 应用的天下》的演讲。60分钟的演讲中,李彦宏发布了两大模型,多款热门AI应用,并宣布将帮助开发者全面拥抱MCP。
当天发布的文心大模型4.5 Turbo和深度思考模型X1 Turbo,能力更强、成本更低。相比文心4.5,文心大模型4.5 Turbo速度更快,价格下降80%。文心大模型X1 Turbo相比文心X1,性能提升的同时,价格再降50%。
与此同时,李彦宏连发高说服力数字人、通用超级智能体心响APP、内容操作系统沧舟OS等多款AI应用,覆盖AI数字人、代码智能体、多智能体协作等热门赛道。另值得关注的是,百度发布了全球首个电商交易MCP,搜索MCP等MCP server,供开发者调用,帮助开发者全面拥抱MCP。
“所有这些发布,都是为了让开发者们可以不用担心模型能力、不用担心模型成本、更不用担心开发工具和平台,可以踏踏实实地做应用,做出最好的应用!”面向现场5000名开发者和科技爱好者,李彦宏郑重地表示。
过去一年,大模型世界风云变幻。一边是大模型厂商卷死卷生,另一边是开发者无所适从,不敢放心大胆做应用。李彦宏对开发者说,“只要找对场景,选对基础模型,有时候还要学一点调模型的方法,在此基础上做出来的应用是不会过时的”。他强调,“没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。”
发布文心大模型4.5 Turbo和文心大模型X1 Turbo 价格最高降80%
超出市场预期,百度在Create开发者大会上连发两大模型:文心大模型4.5 Turbo和文心大模型X1 Turbo,具备多模态、强推理、低成本三大特性。
文心大模型4.5 Turbo和文心大模型X1 Turbo,价格优势显著。文心大模型4.5Turbo,每百万token的输入价格仅为0.8元,输出价格3.2元,相比文心4.5,价格下降80%,仅为DeepSeek-V3的40%;文心大模型X1 Turbo,输入价格为每百万token1元,输出价格4元,相比文心X1,性能提升的同时价格再降50%,仅为DeepSeek-R1的25%。
李彦宏认为,当前开发者做AI应用的一大阻碍,就是大模型成本高、用不起。成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
“多模态将成为未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型的市场会越来越大”。基于这样的判断,文心大模型4.5 Turbo和X1 Turbo都进一步增强了多模态能力。在多个基准测试集中,文心4.5 Turbo多模态能力与GPT 4.1持平、优于GPT 4o。
文心4.5 Turbo-多模态
文心4.5 Turbo-文本
文心大模型X1 Turbo是基于4.5 Turbo的深度思考模型,性能提升的同时,具备更先进的思维链,问答、创作、逻辑推理、工具调用和多模态能力进一步增强,整体效果领先DeepSeek R1、V3最新版。
“有了这样超级能干的基础模型,我们就可以打造出超级有用、超级有趣的AI应用来。”李彦宏表示。
多模态应用:高说服力数字人、内容操作系统“沧舟OS”
高说服力数字人,是多模态大模型的一个典型应用。“2025年最令人激动的突破性应用之一,就是AI数字人。” 李彦宏介绍,百度发布的高说服力数字人,具有声形超拟真、内容更专业、互动更灵活的特点,在电商直播、游戏、消费等领域,有着巨大的应用空间。
在电商直播场景下,传统的数字人文案枯燥、动作少、机器音重;而高说服力数字人的表现力甚至可以超越真人。基于多模态大模型,高说服力数字人拥有“剧本生成”能力,能够做到表情、语气、动作都匹配台词内容实时调整,让数字人的情绪转折和动作切换十分顺畅。
不仅如此,高说服力数字人还具备“AI大脑”,能根据直播间实时热度和转化情况,灵活调度助播、场控、运营等角色共同促进转化,譬如适时切换镜头画面、调度图片、视频素材,真正实现了“一个人就是一支营销团队”。
目前,百度慧播星已上线“一键克隆”功能。用户只需录制一条最短2分钟的视频上传训练,即可拥有自己的专属数字人,人人都能做主播。
会上,李彦宏还带来了百度文库、百度网盘联合推出的沧舟OS,它是全球首个内容领域操作系统。包括了两大核心:一是Chatfile plus,对不同模态、不同形态、不同格式的内容,做解析和向量化处理,然后再进行混合生成。二是建立了“三库”和“三器”:三库,就是公域知识库、私域知识库、记忆库;三器,是编辑器、阅读器、播放器,它们可以根据用户的需求被大模型组合调用。
依托沧舟OS,百度网盘上线了“AI笔记”,这是业内唯一的多模态AI笔记。用户在网盘内观看学习视频时,可一键生成全面、清晰、结构化的AI笔记,还能生成AI思维导图、基于视频内容AI出题,实现视频和笔记在同界面的丝滑联动。未来,文库和网盘将基于沧舟OS,持续推出更多更好用的AI功能,成为AI时代的“超级生产力”。
截至目前,百度文库的AI功能付费用户已超4000万,AI月活用户达到9700万;百度网盘AI月活用户超过8000万。
多智能体应用:通用超级智能体“心响”上线、“秒哒”向全社会开放
当前,智能体已成为AI应用的代名词。其中,代码智能体Coding Agent,是最近半年AI应用进展最快、最火的赛道。全球陆续涌现了cursor、devin、lovable等一系列代码智能体。
去年11月的百度世界大会上,百度发布了无代码编程工具“秒哒”,它拥有无代码编程、多智能体协作、多工具调用三大特性。今年3月,秒哒向全社会开放,任何人都可以通过秒哒,一句话生成应用。
借助秒哒,一个大学生团队几分钟就打造了过去需要一周开发时间的营销工具,仅花费5元左右的模型调用费。过程中,秒哒协同了产品经理、架构师、设计师、工程师等多个智能体,调用了智能云的存储、数据库功能,和地图导航、智能客服等工具组件,迅速地完成了应用开发。
李彦宏表示,“全球有近3000万程序员,有80亿人,当技术的门槛逐渐消失,每个人都可以具备程序员的能力”。
多智能体协作是下一个高价值的AI应用方向。未来的AI应用将从回答问题走向任务交付,而任何一个复杂任务的交付,都需要多智能体的协作来解析需求、分拆任务、调度资源、规划执行,最终交付结果。
会上,百度正式发布多智能体协作APP心响。心响是可以一站式解决用户复杂问题的“通用超级智能体”。以租房维权为例,心响会理清事件关键问题,寻找专家律师AI分身,从不同的角度提供专业建议,最后生成可下载的法律分析报告,并给出详细维权步骤。
目前,心响已覆盖知识解析、旅游规划、学习办公等场景中200个任务类型。
迎接AI应用井喷:发布AI开放计划 帮助开发者积极全面拥抱MCP
面对AI应用的井喷,百度搜索开放平台发布了“AI开放计划”(sai.baidu.com),通过建立多样的内容和服务分发机制,为智能体、H5、小程序、独立App等应用开发者提供流量和收益,为用户提供最新最全的AI服务。此外,百度搜索构建了MCP server的发现平台,可以索引全网市场上优质的server。
李彦宏表示,百度将帮助开发者全面拥抱MCP,并现场演示了千帆、搜索、电商、网盘等产品接入MCP的案例。其中,在百度智能云千帆平台上,开发者可在现有的“万能智能体助手”上,直接添加百度AI搜索和百度优选的MCP Server,让智能体完成从推荐书籍到完成购买。这是国内首个支持电商交易的MCP服务,与最好的搜索MCP相结合的成果。
李彦宏在会上宣布,正式启动第三届“文心杯”创业大赛,进一步加大对创业者的支持力度,特别大奖的投资额最高可达7000万元。同时宣布,未来5年,百度将加大力度,再为社会培养1000万AI人才。
当天的One More Thing环节,百度正式点亮了国内首个全自研的三万卡集群,可同时承载多个千亿参数大模型的全量训练,支持1000个客户同时做百亿参数的大模型精调。
Create大会是百度一年一度面向开发者群体的技术发布和交流大会。今年的大会还包括MCP、DeepSeek、智能体等6大分会场,2025百度智能云GENERATE生态大会、40节线下AI公开课、5000平AI互动展区。
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.