硅基流动与蚂蚁集团联合发布Ling-mini-2.0:实现速度与性能双突破
模型核心特性
架构创新
- MoE架构设计:采用混合专家模型架构,总参数量达16B,但每个Token仅激活1.4B参数
- 高效推理:通过动态参数激活机制显著提升生成速度
- 长上下文支持:最大支持128K上下文长度,大幅扩展应用场景
性能表现
- 推理能力突出:在编程、数学及知识密集型推理任务中表现优异
- 生成速度优势:
- 2000 Token内的问答任务生成速度超过300 Token/秒
- 相比传统8B Dense模型快2倍以上
- 随着输出长度增加,相对加速最高可达7倍
平台支持
硅基流动大模型服务平台提供:
- 多种接入方案和API文档
- 多模型对比和组合功能
- 免费大模型API服务
- 助力开发者快速实现生成式AI应用
技术突破意义
Ling-mini-2.0的成功发布标志着:
- 在小规模参数下实现高性能成为可能
- MoE架构在实用化方面取得重要进展
- 为AI技术的普及和应用提供了新的技术路径
发布时间:2025年9月10日
数据来源:AIbase每日AI新闻