AI-NEWS · 2026年 1月 28日

百虎触视数据集发布

机器人感知新高度:全球首个跨本体视觉-触觉大模型数据集“白琥-VTouch”正式发布

发布日期:2026年1月27日
发布机构:国家地方共建人形机器人创新中心联合多个研究团队

核心概述

随着具身智能的快速发展,如何让机器人像人类一样拥有灵敏的“触觉”感知,已成为行业突破的关键。2026年1月27日,研究团队正式发布了名为“白琥-VTouch”的跨本体视觉-触觉多模态数据集。该成果不仅填补了大规模视觉-触觉数据的空白,也为全球机器人开发者提供了一个高价值的“数字矿藏”。

数据集关键数据与特点

1. 海量数据积累:超过6万分钟的“感官记忆”

作为全球同类最大的开源数据集之一,白琥-VTouch在数据的广度和深度上实现了质的飞跃:

  • 交互时长:包含超过60,000分钟的真实机器人交互数据。
  • 多维度感官对齐:深度整合了视觉画面、触觉反馈、机器人关节位姿等多模态信息。
  • 物理属性捕捉:通过高精度传感器,使AI能够学习物体接触过程中的细微物理变化与形变逻辑。

2. 跨本体范式:打破硬件间的“感知壁垒”

该数据集最显著的特点是“跨本体”特性:

  • 硬件多样性:不再局限于单一机器人型号,涵盖了不同构型(如人形机器人、轮式机器人、机械臂)的感官数据。
  • 通用数据架构:使得AI模型能够在不同硬件间快速迁移和泛化感知能力,让各类机器人能快速获得精细操作能力。

技术意义与应用前景

赋能具身智能:从“看见”到“理解”

长期以来,机器人操作严重依赖视觉。然而,在涉及透明物体、昏暗环境或精密装配任务时,视觉常常“失灵”。“白琥-VTouch”的发布标志着机器人从“视觉主导”迈向“视觉-触觉融合”的新阶段。

预期应用场景

该数据集将为以下场景提供更坚实的基础:

  • 家庭服务
  • 工业精密制造
  • 医疗辅助

行业影响

随着该数据集的开源发布,全球机器人领域有望迎来一波感知算法迭代浪潮。当机器人指尖不再冰冷迟钝时,一个真正灵巧的具身智能时代正在加速向我们走来。

火龙果频道