经纬度转换坐标软件手机版


智东西报告:百度文心大模型持续进化,发布文心大模型4.5 Turbo与文心大模型X1 Turbo

编辑 | 漠影

在最近的Create 2025百度AI开发者上,百度正式发布了全新的两款大模型——文心大模型4.5 Turbo与文心大模型X1 Turbo。这两款模型在多模态能力、推理能力方面有了显著提升,同时在性价比上也实现了新的突破。

文心大模型4.5 Turbo是文心大模型的最新升级版本,其在性能与成本上更具优势。而文心大模型X1 Turbo则是基于上个月发布的文心X1升级而来,具备更先进的思维链,问答、创作、逻辑推理、工具调用和多模态能力进一步增强。

在多模态领域,这两款模型展现出了强大的实力。在多项基准测试中,文心X1 Turbo的总体性能优于DeepSeek-R1和V3最新版,特别是在数学、写作、编程、逻辑等领域的测试中表现突出。

用户可以通过点击页面左上角选择模型来体验这两款模型的能力。它们已经正式上线百度智能云千帆大模型平台,企业用户和开发者可以调用API。智东西也在第一时间进行了全面测评,评价称这两款模型不仅能胜任研报、公文写作,也能解答编程、医学、贸易方面的专业问题,并具备强大多模态能力,因而解锁了拍照出菜谱、识地点、生成产品图等多样玩法。

值得一提的是,这两款模型在性价比上也颇具优势。文心大模型X1 Turbo的输入和输出价格均为DeepSeek-R1的25%,而文心大模型4.5 Turbo的每百万token的输入价格仅为0.8元,输出价格为3.2元,仅为DeepSeek-V3的40%。这一优势无疑将进一步推动这两款模型在市场上的普及和应用。

从技术角度看,这两款模型在训练阶段采用了多模态统一掩码注意力加速技术,显著降低了跨模态计算的掩码构建开销,训练性能大幅提升。在推理阶段,百度引入了多模态流式分块预填充机制,减少首Token延迟,降低显存峰值,提升了推理批次大小和吞吐性能。相比前代模型,文心大模型4.5 Turbo训练吞吐提升5.4倍,推理吞吐提升8倍,极大地降低了大模型应用成本。这一成就离不开飞桨深度学习框架与文心模型的深度协同优化。

除了基础的推理和写作能力,这两款模型还在逻辑思考方面有所突破。例如,在回答医学研究设计问题时,文心大模型X1 Turbo能够将任务拆解为清晰的四个步骤,然后根据计划调用工具、整理信息。对于新近发生的热点与时事,它展现出不错的理解与分析能力。它还能通过多模态理解能力识别图片中的文字和其他元素,给出准确且有趣的解读。

百度文心大模型在持续的迭代中实现了技术上的全面突破。从知识融合、逻辑推理到慢思考、多模态,文心大模型正不断突破技术边界,实现了效果与效率的双重提升。如今,它已经构建起从基础模型到应用工具的完整生态体系。随着技术的不断进步和应用的深入,相信未来百度文心大模型将在更多领域发挥重要作用。