1 从工厂到客厅的跨场景跃迁
当Figure 02机器人五指灵巧地捏住毛巾边缘时,褶皱抚平的动作精度达到0.1毫米级触觉反馈。不同于工业场景中的刚性物体,毛巾的形态熵变率高达83%——这意味着每次抓取都面临全新的拓扑结构。而Helix模型的处理逻辑令人惊讶:工程师仅注入500小时人类叠衣动作数据,未调整任何超参数,同一套神经网络权重便完成了从物流分拣到家居服务的无缝切换。
在宝马工厂搬运钣金的同款机器人,如今能识别毛巾缠绕时的力传导异常。当多抓取的布料滑落,其16自由度的机械手会在400毫秒内触发冗余物回撤机制。这种跨场景泛化能力,本质源于端到端架构对物理世界的隐式建模——与其构建脆弱的物体数字化表征,不如让AI直接学习布料动力学的微分方程。
具身智能领域的“莫拉维克悖论”正在被破解:对人类婴儿轻而易举的叠衣动作,过去十年消耗了机器人学界超2亿小时算力。如今双指捏角力矩控制误差已降至±0.3N·m,触觉传感器采样率突破2KHz,这些参数逼近人类小脑的运动控制极限。

2 Helix双脑架构的工程哲学
拆解Figure的技术路线,会发现其颠覆性在于 “快思考”与“慢决策”的神经耦合:
- 系统2(慢思考):70亿参数多模态语言模型处理视觉-语言输入,以7-9Hz频率解析“叠好毛巾”的抽象指令。当发现布料缠结时,VLM模块会调用OpenCLIP的视觉词表生成语义分割热力图;
- 系统1(快执行):8000万参数的视觉-动作模型以200Hz频率输出运动轨迹。其秘密在于将动作分解为200ms的微批次(micro-batch),通过LSTM网络维持动作链的时序连续性。当拇指沿毛巾边缘滑移时,6轴力传感器实时生成对抗样本,修正运动偏差。
这种架构在机器人本体GPU上实现全栈运行,拒绝云端协同。现场测试显示,从视觉输入到关节转动的端到端延迟仅8.3ms——比人类脊髓反射还快47%。
3 技术路线的三重分岔
当波士顿动力Atlas后空翻视频点击量破亿时,行业暗流早已转向:
- 模仿学习派(Figure AI):通过VR动捕设备采集人类动作,Transformer编码器提取运动基元(motor primitive)。其优势在数据效率——叠衣技能仅需800次演示样本;
- 强化学习派(特斯拉Optimus):把自动驾驶的BEV+Transformer架构迁移到机器人控制。但马斯克承认:Optimus的毛巾折叠成功率仅37%,布料形变导致Q函数收敛困难;
- 混合训练派(Physical Intelligence):先用模仿学习构建技能库,再通过强化学习探索动作空间边界。其双机械臂方案在混合衣物测试中,床单折叠速度比Figure快2.1倍。
值得注意的是,当前机器人叠单条毛巾耗时22秒,仍比人类慢40%。效率瓶颈不在机械结构,而在神经网络推理的认知负载——当需要预判“双层布料叠加时的摩擦力突变”时,模型需调用超3TB的物理仿真预训练数据。
4 中国团队的破局之道
在张江科学城的竞技场上,同博科技的单臂机器人正颠覆传统方案:
- 放弃主流双臂协作架构,采用复合升降机构+3D打印夹具的组合。其创新在于重力辅助折叠:当机械臂将毛巾甩过桌沿时,重力加速度使布料自然展开,比主动抚平节能72%;
- 面对超软材质褶皱难题,团队开发了多模态感知补偿算法。当视觉传感器失效时,6D力传感器通过布料张力场反推形态拓扑,定位误差控制在±1.5mm内。
更底层的突破在数据采集环节。中关村某训练中心部署的100台机器人,正由“机器人训练师”通过VR手柄实时生成动作样本。今年预计产出百万条触觉-视觉关联数据,其中40%将开源共享——这相当于为行业节省2.3万GPU训练小时。
5 落地临界点与隐忧
当具身智能进入家庭场景,成本与鲁棒性的博弈开始显现:
- Helix模型依赖的英伟达Jetson Orin模块单价超$1,500,而家政机器人整机需控制在$20,000内才可能普及。开普勒机器人的解决方案是采用蒸馏技术,将控制模型压缩到500万参数;
- 在长尾测试中,当咖啡渍污染的毛巾被混入,Figure的识别准确率骤降34%。这暴露了模仿学习的本质缺陷——缺乏物理世界的因果推理能力。
张钦峰团队的预测正在应验:2025年全球机器人训练师岗位激增300%,时薪达$120。这些专家用肌肉记忆“编译”技能库,例如教会按摩机器人识别经络压强的黄金分割点。
技术跃迁的下一站
家用机器人的“ChatGPT时刻”将由场景泛化效率定义。当Figure宣布其模型跨任务迁移成本降至$200/技能时,产业时钟开始加速。不过要提醒的是:叠衣机方案每分钟处理12件衣物,人形机器人需提速550%才能赢得厨房战役。
具身智能的终极验证,或许不在实验室的毛巾折叠速度,而在能否处理那团被孩子塞进沙发底的、扭成拓扑怪物的床单。
👉 实操手册获取:https://figure.ai/helix-whitepaper
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...