AI-NEWS · 2025年 12月 31日

腾讯混元翻译模型1.5开源

腾讯混元发布开源翻译模型1.5版:端侧性能显著提升,效果可比肩大型闭源模型

发布日期:2025年12月30日
来源:AIbase Daily

核心发布

腾讯HY-MT于今日正式开源发布其翻译模型1.5版本。此次更新包含两个不同尺寸的模型:

  • Tencent-HY-MT1.5-1.8B:轻量级模型
  • Tencent-HY-MT1.5-7B:较大规模模型

模型旨在以极致效率和领先的翻译质量,重新定义端云协同的翻译体验。

关键亮点:端侧部署与卓越性能

本次发布的1.8B模型表现尤为突出。作为一款为智能手机等消费级设备设计的轻量模型,经过量化后仅需1GB内存即可离线流畅运行。

  • 极致速度:处理50个token的平均时间仅为0.18秒,远快于主流商业翻译API的0.4秒。
  • 优异性能:在FLORES-200等权威测试集上,其性能达到Gemini-3.0-Pro等大型闭源模型的90分位水平,全面超越中等规模的开源模型。

全面覆盖:从主流语言到方言与中文

HY-MT 1.5模型支持33种全球语言的互译,包括中文、英文、日文、法文等,并特别加强了对捷克语、爱沙尼亚语、冰岛语等小语种的支持。此外,模型还覆盖了5种国内少数民族语言及方言,极大拓展了AI翻译的应用边界。

功能演进:更实用的翻译体验

针对实际应用场景,1.5版本在三个维度进行了显著升级:

  1. 自定义术语库:用户可上传医学、法律、金融等专业领域的术语列表,确保专业词汇翻译的一致性。
  2. 上下文理解:具备先进的长文本对话理解能力,能根据前文语境优化后续结果,避免语义断裂。
  3. 格式保留能力:通过精准的指令跟随,模型能在翻译后完美保留原文格式(如网页、代码、Markdown)。

技术突破:大模型指导小模型

HY-MT1.5-1.8B能够“以小博大”,得益于腾讯的**On-Policy Distillation(大模型蒸馏)**策略。由一个7B规模的“教师”模型实时指导“学生”模型,帮助其从预测偏差中学习,而非简单记忆答案,从而显著提升了小模型的逻辑与翻译能力。

开发者生态与全平台支持

目前,HY-MT 1.5模型已在腾讯HY官网上线,并在GithubHuggingFace社区开源。模型已适配Arm、高通、英特尔、沐曦等主流计算平台。

从腾讯会议到企业微信,腾讯HY翻译技术已在多个内部高并发场景中落地。随着1.5版本的开源,腾讯正进一步推动高质量AI翻译技术走向普惠,为全球开发者提供更具性价比的翻译解决方案。

火龙果频道