AI-NEWS · 2025年 12月 7日

腾讯发布混元2.0模型

腾讯自研大模型混元2.0正式发布:多项能力显著提升

发布日期:2025年12月6日
来源:AIbase

核心发布信息

腾讯自研大模型 混元2.0(Tencent HY2.0) 已正式发布。与此同时,DeepSeek V3.2 正逐步融入腾讯生态。目前,这两款模型已率先在腾讯的AI原生应用(如元宝ima)中上线。腾讯云也已同步开放了相关的模型API和平台服务。

混元2.0(HY2.0)关键技术规格

  • 模型架构:采用 专家混合模型(Mixture of Experts, MoE)
  • 参数量:总参数量高达 4060亿,其中激活参数量为 320亿
  • 上下文窗口:支持 256K 超长上下文。
  • 性能定位:其推理能力与效率处于行业领先水平

与前代版本的主要改进

相较于前代版本(Hunyuan-T1-20250822),HY2.0Think 在以下方面实现了显著提升:

  1. 预训练数据与强化学习策略:进行了重大改进。
  2. 复杂推理场景:在数学、科学、代码和指令遵循等场景中,整体性能保持国内顶尖,泛化能力也大幅提升

具体能力提升详情

1. 数学与科学推理

  • 方法:使用高质量数据进行 Large Rollout 强化学习
  • 权威测试成绩:在国际数学奥林匹克(IMO-AnswerBench)、哈佛-麻省理工数学竞赛(HMMT2025)等测试中取得优异成绩。
  • 知识水平任务:在“人类最后考试”(HLE)和ARC AGI泛化能力等任务上取得显著进步。

2. 指令遵循与长文本多轮对话

  • 方法:通过重要性采样校正缓解训练与推理的不一致性,实现了长窗口RL的高效稳定训练。
  • 效果:利用多样化的可验证任务沙箱和基于评分标准的强化学习,在Multi Challenge等指令遵循和多轮任务上性能显著提升。

3. 代码与智能体(Agent)能力

  • 方法:构建了可扩展的可验证环境与高质量合成数据。
  • 效果:在面向实际应用场景的智能体任务(如SWE-bench Verified、Tau2-Bench)上实现飞跃,大幅增强了模型在Agentic Coding和复杂工具调用场景中的实际能力。

生态整合

DeepSeek V3.2模型正在逐步整合至腾讯生态系统中,与混元2.0共同为用户提供服务。


(注:原始材料中包含的其他多条AI领域新闻简报,如欧盟对Meta的反垄断调查、NVIDIA发布新框架、全球独角兽榜单等,因与“腾讯混元2.0发布”主题不直接相关,已按指令移除。整理后的内容聚焦于核心主题信息。)

火龙果频道