Figure机器人会铺床了,但家务机器人的门槛不在“像人”
两台 Figure AI 人形机器人不到两分钟铺好一张床,这段视频最容易被看成“机器人终于会做家务了”。我反而觉得,真正该看的不是床铺得多整齐,而是它们碰到了一类最难标准化的物理世界问题。挂衣服、合电脑、整理耳机、拉平被子,这些动作在人类眼里很小,在机器人系统里却很麻烦。被子没有固定形状,边缘会滑,受力会变,两台机器人的动作还会互相影响。
Figure AI 说,两台机器人没有显式通信,而是通过视觉和点头完成配合。如果这个说法能在更多场景里复现,意义不小。多机协作过去常被做成调度问题:系统先分配任务,每台机器按计划执行。铺床不一样,它要求机器人在过程中不断读懂对方动作,随时修正自己的抓取和拉拽力度。这里面有视觉理解,也有动作预测,还有对柔性物体的物理直觉。
家务不是一组动作库
人形机器人行业过去太喜欢展示跳舞、搬箱子和拧螺丝。那些动作看起来热闹,但环境相对可控。家务的难点在于,它总会临时变形。衣服每天皱得不一样,枕头位置不一样,耳机线缠得不一样,厨房台面更是灾难现场。机器人如果只会执行固定动作,离真正可用还很远。
Figure 这次把难题缩到“铺床”,反而比喊万能管家更可信。一个能稳定处理被子的系统,未来才有机会迁移到衣物折叠、床品更换、简单收纳这类任务。可迁移不是自动发生的,模型要吃到足够多家庭场景数据,还要经得住灰尘、光线、遮挡、宠物和孩子乱入这些脏变量。
商业上也别急着乐观。人形机器人进家庭,价格、维修、续航、噪音和安全责任都没解。消费者不会为一段演示视频买单,除非机器人能在一个月里每天稳定完成几件烦人的小事。先从酒店、养老机构、样板间维护这类半结构化场景落地,可能更实际。
从演示到产品,中间隔着失败率
机器人演示最怕剪辑制造幻觉。Figure 强调视频是正常速度、完全自主,这能加分,但还不够。下一步行业需要公开更多冷冰冰的数据:连续运行多少次、失败怎么定义、人工介入几次、床品换一种材质后表现怎样。没有这些,外界只能看热闹。
我更愿意把它看成一个进度条,而不是终点。人形机器人正在从“能摆姿势”走向“能处理麻烦物体”。这条路会慢,也会贵。真正的门槛不在机器人长得像不像人,而在它能不能在乱糟糟的现实里少犯错。家务机器人如果有一天真能普及,大概不是因为它会点头,而是因为它终于学会了对付一床不听话的被子。