Liquid AI发布实验模型LFM2-2.6B-Exp:26亿参数性能超越百亿级大模型
2025年12月25日(圣诞节),知名边缘AI初创公司Liquid AI正式发布了其最新的实验模型LFM2-2.6B-Exp。这款仅拥有26亿参数的小型开源模型在多项关键基准测试中表现卓越,尤其在指令遵循方面,甚至超越了参数规模达数千亿的DeepSeek R1-0528,引发了业界的广泛讨论,被誉为“最强的30亿参数级别模型”。
模型背景:纯强化学习驱动的实验性突破
LFM2-2.6B-Exp基于Liquid AI第二代液态基础模型(LFM2)系列的26亿参数基础模型优化而来。其优化过程采用了纯强化学习方法,无需监督微调预热或大型教师模型蒸馏。该模型继承了LFM2混合架构的优势,结合了短程门控卷积和分组查询注意力机制,支持32K上下文长度,专为智能手机、笔记本电脑和物联网设备等边缘设备设计,旨在实现高效的本地部署。
Liquid AI强调,此实验性检查点主要专注于优化指令遵循、知识问答和数学推理能力,适用于智能体工作流、RAG检索、数据提取、创意写作和多轮对话等场景。
性能亮点:小身材,大能量
在最新的基准测试中,LFM2-2.6B-Exp展现了惊人的性能:
| 测试项目 | 得分/表现 | 关键对比 |
|---|---|---|
| IFBench(指令遵循基准) | 显著领先同类模型 | 超越参数规模为其263倍的DeepSeek R1-0528 |
| GPQA(研究生级知识问答) | 约42分 | 远超传统30亿参数模型 |
| IFEval(严格指令遵循) | 超过88分 | 击败许多参数超过100亿的模型 |
| GSM8K(数学推理) | 高于82分 | 优于Llama3.2 3B和Gemma3系列 |
此外,该模型在CPU上的预填充和解码速度是竞争对手的两倍,内存占用极低,并支持bfloat16量化,真正实现了“在智能手机上运行博士级推理”。
开源意义:加速边缘AI普及
LFM2-2.6B-Exp已完全开源,模型权重已上传至Hugging Face平台,开发者可自由下载并集成到本地应用中。这不仅展示了强化学习在小模型上的巨大潜力,也进一步推动了边缘AI生态的发展,使得高性能AI从云端走向每一台设备。
行业观点:小模型时代加速到来
AIbase评论指出,LFM2-2.6B-Exp的发布标志着小模型时代正在加速:无需海量参数,通过智能训练范式即可实现先进性能。对于追求隐私、低延迟和低成本的开发者与企业而言,该模型无疑是当前的最佳选择之一。未来,随着RL技术和混合架构的持续演进,30亿参数的开源模型可能接近AGI水平,并在任何设备上流畅运行。
体验地址:感兴趣的读者可立即前往Hugging Face下载体验。
本文信息整理自AIbase,发布日期:2025年12月26日。
