机器人感知革命:全球首个跨实体视触觉多模态大规模数据集“白琥-VTouch”发布
核心摘要
2026年1月26日,国递中心与蔚台机器人联合发布了全球首个、也是目前规模最大的跨本体视觉-触觉传感器多模态数据集——“白琥-VTouch”(Baihu-VTouch)。该数据集的发布旨在解决机器人迈向“具身智能”过程中的触觉感知瓶颈,为全球开发者提供了一个高价值的“数字矿藏”。
数据集关键数据与规模
- 总时长:超过 60,000分钟(约1000小时)。
- 样本数量:包含约 9072万对 真实物体接触样本。
- 传感器规格:支持 640×480分辨率 与 120Hz高刷新率,能捕捉接触过程中极其细微的物理变化。
- 数据模态:集成了触觉传感器数据、RGB-D深度视觉数据以及关节姿态数据,实现了多模态信息的深度对齐。
核心突破:“跨实体”数据采集范式
该数据集最关键的创新在于其“跨实体”采集特性,打破了单一设备的数据孤岛,覆盖了多种主流机器人配置:
- 人形机器人:以全尺寸人形机器人“青龙”为代表的复杂动态结构。
- 轮式人形机器人:包括D-Wheel等灵活的轮臂复合机器人。
- 智能终端:甚至涵盖了手持式Pika夹爪等智能终端设备。
这种覆盖意味着基于此训练的算法将具备更强的通用性,能让不同形态的机器人快速“习得”相似的感知能力。
系统化任务矩阵:瞄准真实世界应用
为使AI能真正解决现实问题,数据集围绕四大真实应用场景构建了系统化的任务矩阵:
- 家庭与家政服务:处理家庭环境中的复杂交互。
- 餐厅服务:精确抓取和处理易碎、柔软的物体。
- 工业制造:在精密装配过程中实现力控调整。
- 特种作业:在极端或特殊环境下执行精确操作。
该任务结构覆盖了超过100项原子技能和260多项接触密集型任务。研究数据显示,在引入视觉-触觉感知后,68%的任务获得了更完整、连续的接触状态描述,这对于机器人实现故障恢复和精确力控具有决定性意义。
行业背景与意义
在当前机器人全面迈向“具身智能”的背景下,如何赋予机器人钢铁之躯以媲美人类的灵敏触觉,已成为突破精细操作瓶颈的关键。“白琥-VTouch”的出现,不仅填补了机器人视觉-触觉交互领域的空白,其大规模、跨实体、多模态的特性,预计将显著加速机器人精细操作与自适应控制算法的研发进程。
