2025年7月,麻省理工学院(MIT)团队在《自然》主刊发表重磅成果:仅需单个摄像头,即可让软体机器人、仿生机器人等复杂系统实现毫米级精准控制。这项突破彻底颠覆了传统机器人依赖多传感器与定制化模型的范式,为非结构化环境中的自动化应用开辟新路径。
传统工业机器人虽易于建模,但刚性结构难以适应复杂地形;而软体机器人虽具环境适应性,却因材料形变难测,需依赖大量传感器与人工建模。MIT团队提出的“神经雅可比场”(NJF)技术,通过深度学习将单摄像头捕捉的二维视频流,实时映射为机器人三维运动模型。在气动软体机械手、16自由度奥利格罗机械手等测试中,系统实现关节运动误差小于3度、指尖控制误差小于4毫米的精度,甚至能自适应工地扬尘、农场杂物等动态干扰。
该技术核心在于“视觉即传感器”的颠覆性理念。研究团队仅用2-3小时随机运动视频训练,便让机器人通过单帧图像重建三维形态与运动范围。这意味着,无论是3D打印的低成本机械臂,还是复杂仿生结构,均可通过“观察-学习”模式自主掌握控制技能,开发成本降低超60%。
从农场采摘到灾难救援,这项技术正重新定义机器人与物理世界的交互方式。正如研究团队所言:“当视觉成为机器人的‘第六感’,自动化将真正突破结构化场景的桎梏。”
版权声明:本文仅代表作者观点,不代表未眠快讯立场。
本文系作者授权未眠快讯发表,未经许可,不得转载。