AI-NEWS · 2025年 7月 18日

DeepMind推MoR架构提效

Google DeepMind推出革命性MoR架构:有望取代传统Transformer模型

核心创新

  • 混合递归架构(Mixture-of-Recursions, MoR):通过动态令牌级路由实现参数共享与自适应计算
  • 递归深度动态分配:轻量级路由系统为每个token分配专属递归深度
  • 先进缓存机制:基于token递归深度选择性缓存关键值对

技术突破

  1. 效率提升

    • 在不增加模型成本情况下达到大模型性能
    • 显著降低内存带宽压力
    • 提高推理吞吐量
  2. 成本优化

    • 通过参数共享、计算路由等多重优化
    • 参数数量减少近50%
    • 计算成本显著降低

性能表现

对比维度 MoR表现 基准模型
参数量 减少50% 传统Transformer
计算预算相同情况下 超越原始Transformer 递归Transformer
少样本学习准确率 平均准确率更高 基准模型
模型规模>360M时 中低预算下经常超越对手 原始Transformer

应用前景

  • 大规模预训练:验证了可扩展性
  • 实际部署:高效计算策略支持更多训练token处理
  • AI研究突破:为LLM效率问题提供新解决方案

论文索引:alphaxiv.org/abs/2507.10524 (非正式发表)

火龙果频道