既然不能去现场,我就复盘了斯坦福“炒菜机器人”的技术闭环。今天刷到他们那个 Mobile ALOHA 的 demo,说实话,第一反应是焦虑。不是焦虑它多先进,是焦虑它背后的“技术闭环”逻辑,和我过去六年搞的那些野路子项目,底层竟然他妈的一样。
2016年我死磕微信小程序,给餐饮店做扫码点餐。你以为真是为了“智慧餐饮”?屁。是为了抓用户 openid,做私域流量池。后端用 Python 爬竞品菜单价格,前端用 Axure 画原型忽悠老板加钱上“会员系统”。闭环是什么?是流量进来(扫码)-数据沉淀(消费记录)-二次触达(模板消息发优惠券)-复购。斯坦福那机器人呢?感知(摄像头看锅)-决策(模型判断菜熟了没)-执行(机械臂翻炒)-反馈(传感器调火候)。结构一模一样:感知、决策、执行、反馈。只不过我的“传感器”是爬虫和后台统计,他们的传感器是物理的。我的“执行器”是发模板消息,他们的执行器是机械臂。
流量红利消失后,存量博弈就是看谁的闭环更紧、漏损更少。我以前那个点餐系统,漏损在哪?用户扫码点了,但可能去柜台付现金,消费数据就断了。或者服务员图省事,直接手写单子,我爬来的数据全废了。为了堵这个漏,我让开发在订单提交环节强制弹窗“请务必在线支付以享受会员价”,还在后台给老板看“漏损报表”,制造焦虑。这就是在修闭环的“反馈”环节。你看斯坦福机器人,他们肯定也疯狂测试“漏损”:菜叶粘锅了传感器没识别到怎么办?翻炒力度不够导致受热不均怎么办?每个“怎么办”后面,都是一堆 if-else 和模型调参,目的就是把意外情况都纳入闭环里。
当大厂都在抢存量时,我这种“小节点”反而在细分市场更滋润。这话不是自我安慰。大厂抢的是平台级存量,他们要的是海量数据、通用模型。但一个沙县小吃老板,不需要通用模型,他只需要确保“今天来的30个老客,有25个通过小程序点了餐并且付了款”。我的闭环只需要在这一个店里跑通,数据量小,反馈快,今晚发现漏损,明早就能改代码上线。斯坦福的机器人,现在也只能在实验室环境炒那几个固定菜式,这就是它的“细分市场”。它不需要今天就去五星酒店后厨颠勺,只要证明“在设定场景下闭环能稳定运行”,价值就出来了。
我现在做的健身教练内容交付也是这个逻辑。以前总想做个平台,整合所有教练和学员,结果死在管理上,心力交瘁。现在回归个人,闭环就小多了:感知(学员打卡数据、饮食照片)-决策(我根据数据调整下周计划)-执行(发定制化的训练视频和饮食清单)-反馈(学员执行后的体感反馈和新的数据)。这个环越小,我控制力越强,漏损越少。学员有没有偷偷喝奶茶?以前管不了,现在通过饮食打卡照片和每周称重,这个“传感器”精度就高多了。
看斯坦福的论文,他们用了模仿学习和视觉语言模型。拆开看,模仿学习对应我过去“抄”竞品模式,视觉语言模型对应我“解读”后台数据图表的能力。技术栈天差地别,但思维模型没变:都是在一个限定领域内,用尽可能多的“传感器”获取信息,用尽可能合理的“模型”做决策,用尽可能可靠的“执行器”去动作,然后死死盯住“反馈”去迭代。红利期,大家比的是开环速度,谁圈地快谁赢。现在存量期,比的是闭环质量,谁的系统漏得少、转得稳,谁才能活下来。炒菜机器人炒的不是菜,是一套在物理世界跑通最小闭环的方法论。我这几年在数字世界里折腾的,本质上也是同一件事。这么一想,焦虑少了点,反而觉得路更清楚了。














