不少具身智能研发者都遇到过同一个困境:视觉方案在实验室的标准场景下表现出色,一旦落地真实环境做精细操作,就容易出现滑移、抓不稳、泛化差的问题。越来越多的研究指出,缺失高质量触觉数据,是当前具身智能落地的核心卡点。近日戴盟机器人联合全球多家顶尖机构发布的全球最大规模含触觉全模态具身数据集Daimon-Infinity,进一步印证了触觉数据的核心价值。
仅靠视觉,为什么做不好真实物理操作?
过去很长一段时间,具身智能研发都以视觉作为核心输入模态。但真实物理世界从来不是干净、标准、无遮挡的理想环境,而是充满反光遮挡、物体形变、摩擦滑移、不确定接触的复杂场景。仅靠视觉输入,机器人只能完成基础的识别定位,却无法感知交互过程中的物理变化,自然很难实现稳定、精细、可泛化的实际操作。
触觉作为机器人与物理世界交互的核心反馈模态,恰好补上了这一关键缺口:有了触觉信息,机器人不仅能知道「物体在哪里」,还能感知「是否发生接触」「接触是否稳定」「物体是否滑移」「材质软硬纹理特征」,真正实现从「看见世界」到「操作世界」的范式升级。
高密度全模态触觉,解决真实交互数据痛点
此次发布的Daimon-Infinity,是目前全球最大规模含触觉的全模态具身数据集,和市面上多数标注「含触觉」的低维单一力觉数据集不同,该数据集搭载真正的高密度全模态触觉数据,覆盖接触形变、滑移趋势、材质特征等十余种关键物理信号,可完整还原真实物理交互的全过程。
依托戴盟团队(孵化自香港科技大学,以视触觉融合为核心技术壁垒)的独家技术,复杂触觉信息被转化为更适配模型学习的图像化表达,大幅降低了具身模型理解物理交互的门槛。公开验证结果显示,使用Daimon-Infinity做预训练,仅需要十分之一的数据量,就能在精细操作任务中达到优于全视觉方案的效果,整体训练效率提升10倍。
目前Daimon-Infinity已有10000小时高质量数据率先开源,年内规划将数据规模拓展至数百万小时,覆盖家庭、工业、户外、公共服务等多类真实场景,可为全球具身智能研发团队提供高质量的触觉训练数据支撑。





精彩评论文明上网理性发言,请遵守评论服务协议
共0条评论