腾讯开源百亿参数文本生成3D动作模型,游戏NPC可一键“活”起来
核心事件
2025年12月30日,腾讯混元团队正式开源了名为 HY-Motion 1.0(Hunyuan-Motion-1.0) 的大规模文本生成3D动作模型。该模型参数量高达百亿(10B),能够通过一句自然语言描述,直接生成高保真、流畅且多样的3D角色骨骼动画。
技术架构与训练策略
- 架构基础:基于扩散变换器(DiT)架构与流匹配机制。
- 三阶段训练策略:
- 预训练:在超过3000小时的多样化动作数据上进行,以构建通用动作先验知识。
- 微调:在400小时的高质量精选数据上进行,以提升动作细节的平滑度。
- 优化:通过结合人类反馈的强化学习(RLHF)与奖励模型,优化动作的物理合理性与语义对齐。
功能与性能
- 动作覆盖:涵盖6大类、超过200种具体动作,包括基础运动、体育竞技、健身户外、社交休闲、日常活动及游戏角色动作(如格挡、僵尸行走)。
- 输出格式:支持SMPL-H骨骼格式,可生成原子动作、复合序列及并发动作。
- 性能表现:
- 在指令遵循能力(SSAE指标)上得分为 78.6。
- 平均动作质量评分为 3.43/5。
- 在社区测试中,对于“跑步”、“坐在椅子上”、“双腿跳两次”等日常指令,生成动作自然连续。对于《黑客帝国》子弹时间下蹲等复杂动作,也能准确复现。
- 性能超越MoMask、DART等开源基线模型,尤其在复杂指令理解和多类别覆盖方面。
- 已知局限:对专业运动员动作(如跳台滑雪、跳水、小轮车)的复现效果不理想,关节过渡偶尔不自然。
应用场景与潜力
- 游戏开发:能快速生成NPC的日常生活动作(行走、交互等),显著加速研发迭代。生成内容可直接导入Blender、Unity、UE等主流3D工具。
- 其他领域:影视分镜、广告定位、VR内容创作等也将受益。
- 轻量版本:同时开源了轻量版 HY-Motion-1.0-Lite,参数量为 4.6亿(0.46B),便于部署。
项目链接
- HY-Motion 1.0: [链接]
- 混元: [链接]
- 动作生成: [链接]
注:本文信息整理自AIbase于2025年12月31日的报道。
