OpenAI 发布最新“物理交互”模型:AI 终于有了身体

OpenAI 发布最新“物理交互”模型,这标题看得我头皮发麻。不是因为它有多震撼,而是因为就在昨天,我刚刚被 Anthropic 的 Claude 3 Opus 模型结结实实地揍了一顿。我花了整整一个下午,把一份 120 页的医疗设备行业白皮书 PDF 扔给它,让它总结核心论点、技术路径差异和潜在市场风险。它不只是总结,它是在用我的逻辑框架做交叉验证,甚至指出了原文里一处前后矛盾的数据引用。那一刻,我对着屏幕骂了句脏话。GPT-4 Turbo 在长上下文里会“失忆”,会胡编乱造,但 Opus 没有,它像是一个真正读懂了文档、并且记得住每一页细节的行业专家。我引以为傲的、靠 Prompt 工程和链式调用构建的“伪长文本处理流水线”,在真正的原生长上下文能力面前,碎得像渣。

这已经不是模型迭代,这是地基更换。我们过去两年在低代码自动化工具里折腾的“AI 调度逻辑”——用 n8n 或者 Zapier 把一个模型的输出作为另一个模型的输入,搞什么“GPT-4 负责创意,Claude 负责校对,文心一言负责本地化”——这套玩法的基础正在崩塌。当单个模型的能力边界扩展到足以覆盖整个任务流时,多模型路由的复杂度就变成了纯粹的负担。但新的玩法更狠:不是“路由”,是“共治”。我最近在实验的一个流程是,让 GPT-4 和 Claude 3 Sonnet 同时处理同一个需求,但不是比较结果,而是让它们互相提问、挑战对方的逻辑漏洞,最后再由一个轻量级模型(比如 Haiku)去提炼共识和剩余分歧点。这他妈哪是自动化,这是在用 AI 模拟项目评审会。成本是高,但产出的方案稳健性,完全不是一个量级。

说回“物理交互”。这词儿太性感了,也太危险了。AI 有了“身体”,意味着它的错误不再停留在文本幻觉里,而是可以直接拧坏一个螺丝、撞上一堵墙、或者错误操作一台医疗设备。这对 prompt 的精确性和安全护栏的要求,是指数级上升。我们现在写 prompt 像是在下围棋,走一步看三步,预判模型的误解。未来给具身 AI 写指令,得像写航天器控制代码,每一行都要考虑传感器噪声、执行器延迟和物理环境的极端案例。我那些教别人“用自然语言描述任务就能生成自动化流程”的课程案例,马上就得重写一半。以前是“告诉 AI 做什么”,以后得是“告诉 AI 在什么物理约束下、以何种安全容错策略去做”。这中间的鸿沟,需要一套全新的“物理语义层”来填补。

我焦虑的点在于,我的学习速度快跟不上这些公司的发布节奏了。上周刚把 n8n 里所有 GPT-3.5 的节点升级到 GPT-4,昨天就得研究怎么集成 Claude 3 的 API。我的“AI 自动化实战”知识库,维护负担越来越重。每个新模型出来,不只是多一个选项,而是意味着原有工作流组合的性价比要重新评估,最佳实践要推倒重来。这种环境下,“熟练”是一种负债,“快速重构”才是核心资产。我今年 39 了,体力记忆力和二十多岁没法比,但被这种浪潮卷着,你停不下来。你只能不断把自己拆解、打散,再按照新的技术格局重新组装起来。

具身 AI 离我们这些搞软件自动化的人还有点远,但它释放的信号无比清晰:AI 正在从纯粹的“信息处理”向“物理世界干预”狂奔。而我们这些靠信息差和流程设计吃饭的人,下一个护城河在哪里?是更懂特定行业的物理约束?还是更擅长为脆弱的 AI 动作设计冗余和备份?我不知道。我只知道,昨天测试 Claude 3 时的那种震撼,和 2016 年第一次用 Python 爬虫抓到数据时的兴奋,本质一模一样。只不过,这次对手不是反爬机制,而是我自己对“可能性”的想象极限。

© 版权声明
THE END
喜欢就支持一下吧
点赞41 分享