当行业还在聚焦模型参数、机器人本体性能比拼时,全球具身智能产业的竞争核心已经悄然转移。近日,戴盟机器人联合Google DeepMind、中国移动、新加坡国立大学、香港科技大学、北京大学、清华大学等全球顶尖学术机构与产业伙伴,正式发布全球最大规模含触觉的全模态物理世界具身数据集Daimon-Infinity,业内普遍将此次发布视作具身智能从「能力验证」迈入「基础设施建设」阶段的标志性节点。
行业共识:数据底座决定具身智能落地上限
过去数年,具身智能行业的核心议题始终围绕模型能力、硬件本体展开,不少研发团队都陷入了「模型参数越堆越大,落地效果提升有限」的瓶颈。如今越来越清晰的行业共识已经形成:决定具身智能能否真正走出实验室、落地复杂真实场景的核心,早已不是模型或本体本身,而是高质量、规模化、可持续生产的物理世界交互数据。
按照规划,Daimon-Infinity将于年内完成数百万小时级数据规模搭建,覆盖家庭、户外、工业、公共服务等多类真实应用场景,融合触觉、视觉、动作轨迹、执行动作、语音文本等多维度信息,目前已有10000小时高质量数据率先完成开源,上线阿里魔搭社区当日即获平台置顶推荐。
底层卡位:构建可持续的真实数据供给体系
不同于市面上多数一次性发布的封闭数据集,Daimon-Infinity的核心价值在于搭建了一套可自我迭代的完整数据基础设施,从采集到训练形成完整闭环:一是补全触觉核心缺口,依托戴盟视触觉融合核心技术,数据集搭载高密度全模态触觉数据,覆盖十余种关键物理信号,预训练仅需1/10数据量即可在精细操作任务中实现更优效果,训练效率提升10倍;二是搭建全球最大外发式采集网络,轻量化便携设备打破封闭数采工厂限制,可深入各类非标准化真实场景,低成本持续产出长尾复杂数据;三是联合阿里云打造全链路数据处理引擎,实现多模态信息时空精准对齐,形成「采集-处理-训练-开源-生态反馈」的完整闭环。
此次发布也意味着,戴盟已经率先卡位具身智能时代最核心的底层基础设施,通过联合全球顶尖机构开源共建的方式,推动产业整体从能力验证向规模化落地迈进,Daimon-Infinity也将成为全行业共享的具身智能数据底座。





精彩评论文明上网理性发言,请遵守评论服务协议
共0条评论