腾讯自研大模型混元2.0正式发布:多项能力显著提升
发布日期:2025年12月6日
来源:AIbase
核心发布信息
腾讯自研大模型 混元2.0(Tencent HY2.0) 已正式发布。与此同时,DeepSeek V3.2 正逐步融入腾讯生态。目前,这两款模型已率先在腾讯的AI原生应用(如元宝和ima)中上线。腾讯云也已同步开放了相关的模型API和平台服务。
混元2.0(HY2.0)关键技术规格
- 模型架构:采用 专家混合模型(Mixture of Experts, MoE)。
- 参数量:总参数量高达 4060亿,其中激活参数量为 320亿。
- 上下文窗口:支持 256K 超长上下文。
- 性能定位:其推理能力与效率处于行业领先水平。
与前代版本的主要改进
相较于前代版本(Hunyuan-T1-20250822),HY2.0Think 在以下方面实现了显著提升:
- 预训练数据与强化学习策略:进行了重大改进。
- 复杂推理场景:在数学、科学、代码和指令遵循等场景中,整体性能保持国内顶尖,泛化能力也大幅提升。
具体能力提升详情
1. 数学与科学推理
- 方法:使用高质量数据进行 Large Rollout 强化学习。
- 权威测试成绩:在国际数学奥林匹克(IMO-AnswerBench)、哈佛-麻省理工数学竞赛(HMMT2025)等测试中取得优异成绩。
- 知识水平任务:在“人类最后考试”(HLE)和ARC AGI泛化能力等任务上取得显著进步。
2. 指令遵循与长文本多轮对话
- 方法:通过重要性采样校正缓解训练与推理的不一致性,实现了长窗口RL的高效稳定训练。
- 效果:利用多样化的可验证任务沙箱和基于评分标准的强化学习,在Multi Challenge等指令遵循和多轮任务上性能显著提升。
3. 代码与智能体(Agent)能力
- 方法:构建了可扩展的可验证环境与高质量合成数据。
- 效果:在面向实际应用场景的智能体任务(如SWE-bench Verified、Tau2-Bench)上实现飞跃,大幅增强了模型在Agentic Coding和复杂工具调用场景中的实际能力。
生态整合
DeepSeek V3.2模型正在逐步整合至腾讯生态系统中,与混元2.0共同为用户提供服务。
(注:原始材料中包含的其他多条AI领域新闻简报,如欧盟对Meta的反垄断调查、NVIDIA发布新框架、全球独角兽榜单等,因与“腾讯混元2.0发布”主题不直接相关,已按指令移除。整理后的内容聚焦于核心主题信息。)
