特斯拉 Cybercab 发布:马斯克的“去方向盘化”与我的“去代码化”

特斯拉 Cybercab 发布那天,我盯着那个没有方向盘、没有踏板的座舱,脑子里想的不是自动驾驶,而是我上个月写的那堆狗屎一样的图像识别代码。马斯克在台上说“物理操作是冗余的”,我对着屏幕骂了一句,我他妈过去十年写的那些操作 DOM 树、调 OpenCV 参数、死磕多线程防止卡死的代码,是不是也快成冗余了。

上个月接了个急活儿,客户要个工具,能从一堆电商详情页截图里自动抠出商品主图、价格、SKU 信息,还要能处理那些狗皮膏药一样的水印和促销标签。我第一反应还是老路子:用 requests 爬 HTML,解析 DOM,不行就上 Selenium 模拟点击,再不行就祭出 OpenCV 做模板匹配,写一堆阈值判断、轮廓检测。光是处理那些千奇百怪的“到手价”、“限时秒杀”红色爆炸贴图,我就调了三天参数,准确率卡在 85% 死活上不去,客户已经在催了,我焦虑得半夜爬起来看日志,感觉头发又掉了一把。

转折点是我在 Twitter 上看到一个鬼佬用 GPT-4 Vision API 干类似的事。我把心一横,决定把之前那套全扔了。新流程简单得可怕:用 requests 把截图下载下来,直接 base64 编码塞给 GPT-4V,Prompt 就是:“你是一个电商数据提取专家。分析这张图片,以 JSON 格式返回以下信息:1. 商品主体图片在画面中的精确坐标(描述其边界框)。2. 商品价格(找到最突出的那个数字)。3. 商品 SKU 或货号(如果存在)。忽略所有水印、广告标签和装饰性文字。” 第一次跑,我手都在抖,不是怕出错,是怕它太他妈对了。

结果它一次就对了。不只是对了,它连那种半透明叠加在商品角上的“热卖”图标都能识别出来,并在 JSON 里备注了“该区域有覆盖性标签,可能影响主体识别”。我过去三天调的什么高斯模糊、二值化、形态学操作,在它眼里可能就像是在用算盘解微积分。我瘫在椅子上,不是兴奋,是一种很深的无力感,夹杂着“我操原来可以这样”的震撼。我的工作从“写算法去理解图片”变成了“写清晰的指令去描述我的需求”。核心技能从 Python 库的熟练度,切换成了对问题边界的定义能力和与模型的对话能力。

这感觉和看 Cybercab 一模一样。我们这代产品经理,或者说数字手工业者,花了太多时间在“驾驶”上:怎么更高效地操作 Axure 画原型,怎么用更精妙的 XPath 去抓取数据,怎么写更健壮的异常处理来应对平台的反爬。马斯克把方向盘拿掉了,GPT-4V 把我那堆图像处理代码拿掉了。剩下的核心是什么?是目的地(要解决什么问题),是路径规划(如何拆解和描述问题),是对系统可靠性的总体把控(流程编排与错误处理)。代码从“实现逻辑的主体”变成了“连接与调度的胶水”。

我现在大量时间花在 n8n 上,把 GPT API、爬虫、数据处理节点像搭乐高一样连起来。一个复杂的电商数据监控流程,以前要一个三人小团队搞一周,现在我一个人,一个下午,在 n8n 画布上拖拽连线就能跑通原型。焦虑感并没有消失,它转移了:从“我这个功能能不能实现”变成了“我这个流程设计得是否足够鲁棒,提示词是否足够无歧义,成本是否可控”。另一种维度的技能恐慌开始了,但这次,我隐约觉得方向对了。去代码化不是不写代码,是让代码退到它该在的位置——一个听话的、不知疲倦的执行者,而我把精力全部收回到“决策”本身。就像 Cybercab 里的乘客,不再关心扭矩和转向比,只关心何时、何地、以何种舒适度到达。

© 版权声明
THE END
喜欢就支持一下吧
点赞53 分享