既然 o3 已经普及了,我就把核心代码全交给了 AI (自然语言版)

既然 o3 已经普及了,我就把核心代码全交给了 AI。这话说出来,我 40 岁的心脏还是抽了一下。不是矫情,是那种你引以为傲的、吃饭的家伙,突然发现它不再是“手艺”,而是一种可以被更高效“描述”出来的东西。Rembg Pro 那个抠图引擎,我当年用 Python + OpenCV 死磕了多久?边缘羽化算法、头发丝处理、多线程批量,光是处理不同背景材质的适配就写了上千行。现在,我把整个需求文档、测试用例图片、性能指标要求,用自然语言扔给了 o3-mini。

它没直接给我代码。它先问了我十七个问题。从“用户上传的图片最大分辨率预期”到“透明背景输出是否需要支持 WebP 动图”,再到“在边缘存在半透明渐变时,您更倾向于保全主体轮廓的清晰度,还是背景移除的彻底性?这涉及损失函数的权重调整”。那一刻我有点懵,这他妈比我当年自己设计产品逻辑时想得还细。我耐着性子,像跟一个极度较真但天赋异禀的新人产品经理对话一样,逐一回答。然后它给了我一个方案,不是代码,是一个架构图,用文字描述的:前端用 n8n 接收文件,触发一个 Flask 轻量 API,核心处理调用 PyTorch 的一个轻量模型,但它建议我不要自己训,直接微调一个现成的 SAM2 变体,并给出了三个预训练模型的 Hugging Face 链接和微调数据集的构建建议。

我按照它的“指引”去操作。过程里它一直在纠偏。我习惯性想写个多线程队列去处理并发请求,它打断我,说根据我的预估 QPS 和 o3-mini 的 API 成本,建议直接采用异步 IO,并给出了 asyncio 和 aiohttp 的搭配示例,还提醒我注意设置单个任务的处理超时,避免卡死。我就像个监工,而它才是那个真正的架构师。我把原来 Rembg Pro 里最让我头疼的那部分——复杂背景下的前景泄漏判断逻辑,用自然语言描述给它:“就是有时候,用户上传一张人站在格子窗帘前的照片,格子纹理会透过头发丝的缝隙被误判成前景,导致抠图后头发丝里带着奇怪的格子斑点。”

它回复了一段分析,先解释了这种现象在计算机视觉里通常是由于颜色混淆和纹理特征相似导致的,然后给出了三个缓解策略:一是在数据预处理阶段增加针对高频纹理的对抗样本,二是在模型后处理阶段加入一个基于连通域分析的斑点过滤层,三是提供一个“保守模式”开关,允许用户牺牲少量发丝细节来换取更干净的主体轮廓。它甚至为每个策略附上了大概的代码实现复杂度和对处理速度的影响预估。我选了方案二,它随后就给出了具体的 Python 代码片段,用的是 OpenCV 的 findContours 和 contourArea,还贴心地加了注释,提醒我面积阈值的设置需要根据图片分辨率动态调整。

整个“开发”过程,我敲的代码量可能只有过去的十分之一。大部分时间花在“描述问题”、“审核方案”和“提出更刁钻的测试用例”上。我不断用各种极端图片去测试它给出的方案,把失败案例丢回去,它再调整。这感觉很奇怪,我不是在编程,我是在训练一个拥有超级逻辑和知识储备的“数字员工”,用对话的方式,把我要的“结果”逼出来。

十年前,我焦虑的是不会最新的框架,五年前,我焦虑的是管不住人、做不出流水。现在,我焦虑的是我的“逻辑描述能力”能不能跟上 AI 的理解深度。未来的产品经理,可能真的不再是画原型写 PRD 了,而是成为“逻辑的牧羊人”。你得在一片混沌的用户需求里,精准地圈定出那块需要被 AI 啃食的草地,然后用最精确、无歧义的自然语言指令,引导 AI 这头巨兽去执行。你的核心价值,不再是掌握工具本身,而是深刻理解问题域,并拥有将问题转化为 AI 可执行指令链的能力。我把 Rembg Pro 的核心逻辑交出去了,某种意义上,我把自己过去的一部分武功废了。但我知道,如果我不亲手废掉它,很快也会有别人用更先进的方式把它淘汰。这种紧迫感,比 2016 年熬夜学爬虫反反爬策略时,还要强烈十倍。至少那时候,我知道努力的方向是学会那些技术。现在,方向变成了“如何与一个比你聪明得多的存在高效协作”,这条路,没人走过。

© 版权声明
THE END
喜欢就支持一下吧
点赞37 分享