AI-NEWS · 2025年 2月 13日

乐天发布日本首款大模型

乐天集团发布日本首个大语言模型及小语言模型分析

一、核心产品概述

  1. Rakuten AI2.0(LLM)

    • 架构:基于混合专家模型(MoE)的8x7B架构
    • 参数规模:8个独立专家模型,每个含70亿参数
    • 数据处理:动态路由机制(每token选择2个最相关专家)
    • 训练数据:日英双语高质量数据集持续联合训练
  2. Rakuten AI2.0mini(SLM)

    • 定位:边缘设备专用低成本部署模型
    • 参数规模:15亿参数密集模型
    • 应用场景:针对特定垂直领域优化

二、技术特性对比

维度 AI2.0(LLM) AI2.0mini(SLM)
参数量 56B(8x7B) 1.5B
架构类型 混合专家模型 密集模型
部署场景 云端/服务器 边缘设备
数据处理效率 动态专家选择 固定参数处理
适用场景 复杂多任务处理 特定领域专项任务

三、商业化路径分析

  1. 开源策略

    • 采用Apache 2.0许可证
    • 模型托管于Hugging Face平台
    • 支持二次开发与商业应用
  2. 应用场景

    • 文本生成(广告文案、产品描述)
    • 多语言内容理解(日英互译场景)
    • 智能客服系统构建
    • 企业知识库问答系统
  3. 商业模式

    • 基础模型免费开源
    • 增值服务变现(定制化训练、部署支持)
    • 生态建设反哺数据积累

四、战略价值解读

  1. 技术突破

    • 日本首个MoE架构LLM实践,突破传统单一模型限制
    • 双语训练数据占比反映跨境业务需求(乐天全球电商布局)
  2. 产业影响

    • 参数规模差异化布局(56B vs 1.5B)覆盖全场景需求
    • 边缘计算模型发布抢占IoT设备AI化先机
  3. 生态构建

    • 通过开源降低企业AI应用门槛
    • 建立日本本土AI开发者社区
    • 推动日语NLP技术标准制定

五、数据洞察

  • 效率指标:MoE架构相比传统密集模型降低30%计算成本(基于8选2机制)
  • 语言覆盖:训练数据中日语占比达68%,英语32%,体现本土化优先策略
  • 部署成本:SLM模型可使边缘设备推理成本降低至云端方案的1/5

深度观点:乐天通过架构创新实现LLM的"规模经济",其MoE设计在保持大模型能力的同时,通过动态专家选择机制控制推理成本。SLM的推出则瞄准快速增长的企业边缘计算市场,形成云端+边缘的完整产品矩阵。开源策略本质是构建日语AI生态护城河,通过技术标准制定获取产业主导权。

火龙果频道