AI-NEWS · 2025年 3月 10日

字节跳动开源COMET技术

ByteDance 的 Doubao 大模型团队在 MoE 架构优化上取得突破

概述

ByteDance 的 Doubao 大模型团队最近宣布在 Mixture-of-Experts (MoE) 架构的关键瓶颈上取得了突破,并开源了一项名为 COMET 的优化技术。该技术显著提高了大模型训练效率,实现了 1.7 倍的加速,并将训练成本降低了 40%

技术亮点

  • COMET 技术:该技术已在 ByteDance 的大规模多 GPU 集群训练中部署,节省了数百万 GPU 小时。
  • 兼容性与易用性:与 DeepSeek 的 DualPipe 等近期 MoE 优化方案相比,COMET 具有更高的兼容性和易用性。它可以像插件一样无缝集成到现有的 MoE 训练框架中,支持主流大模型,无需进行侵入性修改。
  • 性能提升:技术数据显示,COMET 将单个 MoE 层的速度提升了 1.96 倍,整体端到端效率平均提高了 1.71 倍。它在各种并行策略、输入规模和硬件环境中均表现出稳定的性能。
  • 与 DualPipe 的协同使用:COMET 还可以与 DeepSeek 的 DualPipe 结合使用,有望进一步显著降低模型训练成本。

影响与意义

COMET 的开源标志着大模型领域的一项重大进展,有望加速大模型的研究和应用。

相关资源

图片来源:由 AI 生成,授权自 Midjourney。

火龙果频道