新加坡国家AI计划更换核心模型:弃用Meta Llama,采用阿里Qwen3-32B开源模型
核心要点
新加坡人工智能署(AISG)发布新一代大语言模型Qwen-Sea-Lion-v4,其底层技术从Meta Llama全面切换至阿里巴巴的"Qwen3-32B"开源模型。该模型在东南亚语言综合评估基准(Sea-Helm)中,以不到2000亿参数的规模在开源榜单中排名第一。
技术切换原因
语言适应性
- Llama缺陷:在印尼语、泰语、马来语等低资源语言上表现不佳
- Qwen3优势:预训练覆盖119种语言/方言,包含36万亿token,原生多语言架构降低后续训练门槛
分词优化
- 摒弃西方常用的"句子分词器"
- 采用字节对编码(BPE),能够无空格分割泰语和缅甸语字符
- 显著提升翻译准确性和推理速度
计算友好性
- 量化后模型可在32GB内存的消费级笔记本电脑上运行
- 适应东南亚众多中小企业计算能力有限的场景
训练数据特点
- AISG贡献1000亿东南亚语言token
- 内容浓度是Llama2的13-26倍
- 阿里巴巴采用"高级后训练"注入区域知识
- 模型能更好理解新加坡英语、马来西亚英语等混合语言
性能表现
- 在Sea-Helm排名中,印尼语、越南语、泰语、马来语任务平均领先原Llama基线8.4分
- 文档级推理和跨语言摘要指标排名第一
开源与实施计划
- 模型已在Hugging Face和AISG官网免费提供下载
- 提供48位量化版本
- 新加坡政府已将其纳入2023年启动的价值7000万新元国家多模态计划
- 预计2026年前在教育、医疗、金融领域广泛部署
