Google DeepMind发布SIMA 2预览版:性能翻倍,迈向通用机器人之路
核心要点
- 发布时间:2025年11月14日
- 发布状态:研究预览版
- 性能提升:任务成功率约为SIMA 1的两倍
- 技术基础:基于Gemini 2.5 Flash-lite多模态模型
技术突破
自生成数据循环机制
SIMA 2首次引入创新性的自生成数据循环:
- 进入新场景后,系统调用独立Gemini模型批量生成任务
- 内部奖励模型对生成任务进行评分
- 选择高质量轨迹进行持续微调
- 无需额外人工标注即可提升性能
环境理解能力
在《无人深空》等测试环境中,SIMA 2能够:
- 读取环境文本
- 识别颜色和符号
- 理解表情符号组合
- 执行"去红房子"或"砍树"等复杂指令
演示成果
DeepMind结合生成世界模型Genie,为SIMA 2生成逼真的户外场景。智能体能够:
- 准确识别长椅、树木、蝴蝶等物体
- 与环境中物体进行有效交互
技术定位与发展方向
当前重点
- 专注于高层决策
- 不涉及机械关节或轮子等底层控制
未来规划
- 同时训练了采用不同技术路线的机器人基础模型
- 两者如何整合尚未确定
- 希望通过预览版吸引外部合作
- 探索虚拟智能体向物理机器人迁移的可行路径
专家观点
高级研究科学家Jane Wang表示:"理解场景→推断目标→规划行动"这一循环是将虚拟环境能力迁移到真实机器人所需的关键高层行为模块。
发布计划
团队拒绝透露正式发布日期,强调当前重点是验证实现通用机器人和AGI所需的高层世界理解和推理能力。
