AI-NEWS · 2025年 11月 27日

新加坡AI计划换芯

新加坡国家AI计划更换核心模型:弃用Meta Llama,采用阿里Qwen3-32B开源模型

核心要点

新加坡人工智能署(AISG)发布新一代大语言模型Qwen-Sea-Lion-v4,其底层技术从Meta Llama全面切换至阿里巴巴的"Qwen3-32B"开源模型。该模型在东南亚语言综合评估基准(Sea-Helm)中,以不到2000亿参数的规模在开源榜单中排名第一。

技术切换原因

语言适应性

  • Llama缺陷:在印尼语、泰语、马来语等低资源语言上表现不佳
  • Qwen3优势:预训练覆盖119种语言/方言,包含36万亿token,原生多语言架构降低后续训练门槛

分词优化

  • 摒弃西方常用的"句子分词器"
  • 采用字节对编码(BPE),能够无空格分割泰语和缅甸语字符
  • 显著提升翻译准确性和推理速度

计算友好性

  • 量化后模型可在32GB内存的消费级笔记本电脑上运行
  • 适应东南亚众多中小企业计算能力有限的场景

训练数据特点

  • AISG贡献1000亿东南亚语言token
  • 内容浓度是Llama2的13-26倍
  • 阿里巴巴采用"高级后训练"注入区域知识
  • 模型能更好理解新加坡英语、马来西亚英语等混合语言

性能表现

  • 在Sea-Helm排名中,印尼语、越南语、泰语、马来语任务平均领先原Llama基线8.4分
  • 文档级推理和跨语言摘要指标排名第一

开源与实施计划

  • 模型已在Hugging Face和AISG官网免费提供下载
  • 提供48位量化版本
  • 新加坡政府已将其纳入2023年启动的价值7000万新元国家多模态计划
  • 预计2026年前在教育、医疗、金融领域广泛部署

火龙果频道