Liquid AI 发布1.2B推理模型:内存占用不足1GB,可在移动边缘设备运行
发布日期:2026年1月21日
来源:AIbase Daily
核心摘要
Liquid AI 近日正式发布了其 Liquid Foundation Model 系列的新成员——LFM2.5-1.2B-Thinking。这是一个拥有12亿参数的推理模型,在边缘设备部署上实现了显著突破。该模型在现代智能手机上运行时,内存占用仅约900MB,这意味着以往需要数据中心支持的推理能力,现在可以完全在个人移动设备上离线运行。
模型特点
- 专精领域:与专注于日常对话的通用模型不同,LFM2.5-1.2B-Thinking 专为复杂逻辑推理、数学运算和工具调用而设计。
- 思考过程:模型在生成最终答案前,会先产生内部的“思考痕迹”(thinking traces)。这类似于人类解决问题的过程,能有效规划步骤并验证中间结果,从而显著提升处理多步骤指令的准确性。
性能数据
- 解码速度:
- 在 AMD CPU 上:239字符/秒
- 在移动 NPU 上:82字符/秒
- 稳定性提升:开发团队通过引入多阶段强化学习(RLVR)等先进训练技术,成功将推理模型中常见的“循环挂起”(loop hang)率从 15.74% 降低至 0.36%,确保了在边缘设备上流畅稳定的用户体验。
意义与展望
该模型的发布标志着高性能AI推理能力正从云端向个人移动设备普及,为开发无需持续网络连接的本地化、低延迟AI应用(如实时翻译、复杂计算助手、离线智能工具等)提供了新的可能。
本文由AIbase Daily团队提供,内容经过重新整理,已移除无关的广告、链接及导航信息。
