AI-NEWS · 2024年 7月 25日

​英伟达推出 Minitron 小型语言模型:训练速度提高 40 倍

英伟达推出 Minitron 小型语言模型:训练速度提高 40 倍

概要

英伟达(NVIDIA)推出了Minitron系列的小型语言模型,包含4B和8B两个版本。这些模型在保持高性能的同时,训练速度提升了40倍,并且大幅降低了计算资源和数据需求。

技术亮点

  • 模型修剪(Pruning):评估并删除大型模型中不重要的神经元、层或注意力头,使模型小巧且减少训练资源和时间。
  • 知识蒸馏(Knowledge Distillation):使用小规模数据集对修剪后的模型进行再训练,以恢复模型准确性。

性能表现

  • Nemotron-4模型家族:模型大小减少2到4倍,性能相似。
  • 8B模型:多个指标上超越其他知名模型,如Mistral7B和LLaMa-38B。所需训练数据减少40倍,计算成本节省1.8倍。

开源共享

  • Huggingface平台:Minitron模型已在Huggingface上开源,供开发者自由获取和使用。

划重点

  • 📈 提升训练速度:Minitron模型训练速度比传统模型快40倍。
  • 💡 节省成本:通过修剪和知识蒸馏技术,大幅降低训练所需的计算资源和数据量。
  • 🌍 开源共享:Minitron模型已在Huggingface上开源,推动AI技术普及。

实际应用

这些小型模型适用于翻译、情感分析和对话AI等多种应用,为开发者提供更便捷、高效的工具。

参考链接

Source:https://www.aibase.com/news/10574