Liquid AI 发布 LFM2.5:面向边缘设备的小型AI模型家族
发布日期:2026年1月7日
来源:AIbase
核心摘要
Liquid AI 近期发布了 LFM2.5,这是一个基于 LFM2 架构的新一代小型基础模型家族,专注于边缘设备和本地部署。该系列模型在多个基准测试中表现优异,并覆盖了文本、视觉-语言和音频-语言等多种模态及区域优化变体。
模型概览
LFM2.5 模型家族保留了为 CPU 和 NPU 设计的混合 LFM2 架构,旨在实现快速且内存高效的推理。主要模型包括:
- LFM2.5-1.2B-Base:基础模型。
- LFM2.5-1.2B-Instruct:指令微调模型。
该系列还扩展至日语、视觉-语言和音频-语言变体。所有模型权重已在 Hugging Face 开源,并在 LEAP 平台上展示。
关键技术与数据
- 架构与训练:
- 预训练阶段参数扩展至 1.2亿。
- 训练数据从 10万亿 token 大幅增加至 28万亿 token。
- 指令变体模型经过了监督微调、偏好对齐和大规模多阶段强化学习,专注于指令遵循、工具使用、数学和知识推理。
各模型性能与特点
1. 通用文本模型:LFM2.5-1.2B-Instruct
在多项基准测试中表现突出,显著超越同类开源模型:
- GPQA 得分:38.89
- MMLU Pro 得分:44.35
对比模型(如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT)得分均低于此。
2. 日语优化文本模型:LFM2.5-1.2B-JP
专为日语任务优化,在 JMMLU、M-IFEval 和日语 GSM8K 等任务上表现优于通用指令模型,并在本地基准测试中与其他小型多语言模型竞争。
3. 视觉-语言模型:LFM2.5-VL-1.6B
集成了视觉模块以理解图像,针对边缘环境优化,支持文档理解、用户界面读取和多图像推理等实际应用。
4. 音频-语言模型:LFM2.5-Audio-1.5B
原生支持文本和音频的输入与输出,采用新型音频分词器,速度比先前解决方案快 8倍,适用于实时语音对话代理和自动语音识别等任务。
总结
LFM2.5 模型家族通过其小型化、多模态和针对边缘计算优化的设计,为各种实际应用场景(如本地文档处理、多语言交互、实时音频应用等)提供了强大的AI能力。
