AI-NEWS · 2025年 12月 26日

液态AI发布新模型LFM2-2.6B

Liquid AI发布实验模型LFM2-2.6B-Exp:26亿参数性能超越百亿级大模型

2025年12月25日(圣诞节),知名边缘AI初创公司Liquid AI正式发布了其最新的实验模型LFM2-2.6B-Exp。这款仅拥有26亿参数的小型开源模型在多项关键基准测试中表现卓越,尤其在指令遵循方面,甚至超越了参数规模达数千亿的DeepSeek R1-0528,引发了业界的广泛讨论,被誉为“最强的30亿参数级别模型”。

模型背景:纯强化学习驱动的实验性突破

LFM2-2.6B-Exp基于Liquid AI第二代液态基础模型(LFM2)系列的26亿参数基础模型优化而来。其优化过程采用了纯强化学习方法,无需监督微调预热或大型教师模型蒸馏。该模型继承了LFM2混合架构的优势,结合了短程门控卷积和分组查询注意力机制,支持32K上下文长度,专为智能手机、笔记本电脑和物联网设备等边缘设备设计,旨在实现高效的本地部署。

Liquid AI强调,此实验性检查点主要专注于优化指令遵循、知识问答和数学推理能力,适用于智能体工作流、RAG检索、数据提取、创意写作和多轮对话等场景。

性能亮点:小身材,大能量

在最新的基准测试中,LFM2-2.6B-Exp展现了惊人的性能:

测试项目 得分/表现 关键对比
IFBench(指令遵循基准) 显著领先同类模型 超越参数规模为其263倍的DeepSeek R1-0528
GPQA(研究生级知识问答) 42 远超传统30亿参数模型
IFEval(严格指令遵循) 超过88 击败许多参数超过100亿的模型
GSM8K(数学推理) 高于82 优于Llama3.2 3B和Gemma3系列

此外,该模型在CPU上的预填充和解码速度是竞争对手的两倍,内存占用极低,并支持bfloat16量化,真正实现了“在智能手机上运行博士级推理”。

开源意义:加速边缘AI普及

LFM2-2.6B-Exp已完全开源,模型权重已上传至Hugging Face平台,开发者可自由下载并集成到本地应用中。这不仅展示了强化学习在小模型上的巨大潜力,也进一步推动了边缘AI生态的发展,使得高性能AI从云端走向每一台设备。

行业观点:小模型时代加速到来

AIbase评论指出,LFM2-2.6B-Exp的发布标志着小模型时代正在加速:无需海量参数,通过智能训练范式即可实现先进性能。对于追求隐私、低延迟和低成本的开发者与企业而言,该模型无疑是当前的最佳选择之一。未来,随着RL技术和混合架构的持续演进,30亿参数的开源模型可能接近AGI水平,并在任何设备上流畅运行。

体验地址:感兴趣的读者可立即前往Hugging Face下载体验。


本文信息整理自AIbase,发布日期:2025年12月26日。

火龙果频道