豆包大模型2.0正式发布:推理成本降低一个数量级,API全面开放
发布日期:2026年2月14日
发布方:字节跳动火山引擎
核心摘要
火山引擎正式推出豆包大模型2.0系列,并同步向企业与开发者开放API服务。此次升级的核心亮点在于推理成本相比行业领先模型降低约一个数量级,且自初版发布以来,每日Tokens使用量增长超过500倍。
模型系列与定位
豆包大模型2.0提供四个差异化模型,以适应不同场景的延迟与成本需求:
| 模型版本 | 核心定位与特点 |
|---|---|
| Pro版 | 旗舰模型,专注于复杂的深度推理与智能体任务。 |
| Lite版 | 性能超越1.8版,能力提升的同时Tokens消耗更少,具备极佳性价比。 |
| Mini版 | 优先考虑速度与成本,能力与1.6 Pro版相当。 |
| Code版 | 为开发者优化,适用于真实编程环境,结合TRAE使用时表现更佳。 |
关键能力升级
1. 多模态理解达到世界级水平
- 视觉理解:在空间理解、运动理解、视频理解等多项评测中领先Gemini3pro。
- 图表理解:CharXiv-RQ能力显著提升。
- 视频场景:
- 增强了时序与运动感知理解,在TVBench等关键评测中领先。
- EgoTempo基准测试得分超越人类。
- 在长视频评测中超越多数顶级模型,支持实时视频流分析、主动引导等交互,适用于健身、时尚等陪伴场景。
2. 大语言模型与智能体能力显著增强
- 专业知识:通过补充长尾领域知识,更好地适应专业场景。
- Pro版在SuperGPQA评测中得分高于GPT5.2。
- 在HealthBench排名第一。
- 科学领域性能与Gemini3Pro、GPT5.2相当。
- 推理与执行:
- HLE-text以54.2分全球领先。
- IMO评测超越Gemini3pro。
- 在工具调用与指令遵循上表现优异,部分场景STEM基准得分超过Gemini3Pro。
3. 指令遵循与工作流能力
- 增强了指令遵循的一致性与可控性,擅长长链多步骤任务。
- 能完成“查找信息-总结-得出结论”的连续工作流。
- 可结合工具完成从数据处理、内容创作到图像生成与排版的全流程任务。
- 基于其构建的智能客服智能体可实现包括客户对话、问题转接、售后跟进在内的全周期服务。
4. 开发者工具与效率提升
- Code版模型:可稳定调用主流IDE工具,前端能力优化显著,支持自定义技能。
- 结合TRAE:可大幅提升开发效率,仅需5轮提示即可构建如“AI庙会”般的复杂Web应用,相关材料已开源。
- 新计费套餐:针对智能体时代Tokens使用量激增,火山引擎更新了Coding Plan套餐。新用户首月最低仅需8元即可通过火山方舟调用该模型,实现不同编程任务的精准模型匹配。
访问方式
- 企业与开发者:可通过火山引擎提供的API服务进行调用。
- 个人用户:可通过火山方舟体验中心或豆包App的“专家”模式进行体验。
本文信息整理自AIbase于2026年2月14日的报道。
