既然指令可以说大白话,我就让 AI 去除了发丝间的背景并保留光影。今天跟 Rembg Pro 的 API 干了一架,他们刚更新了“推理识别”模块,我直接拿一张逆光人像的测试图扔过去,在参数里写了句“remove background between hair strands, keep lighting effects”。结果返回的 PNG 差点让我把咖啡喷屏幕上——发丝是抠出来了,但整个人的立体感全没了,像一张扁平的剪纸。
这问题我太熟了。2018年做电商详情页自动化那会儿,用 OpenCV 搞背景分割,头发边缘永远是一团糊,只能靠人工手动画蒙版。当时觉得这是技术天花板,现在 AI 把天花板捅穿了,但新的问题更他妈微妙:它听懂了“剔除背景”,但没听懂“保留光影”到底指什么。光影不是数据,是物理世界的错觉,是环境光、反射、高光和阴影在头发这种复杂介质上的相互作用。AI 需要你把这种“感觉”翻译成它能处理的信号。
我重新调了 API。这次指令拆成了三段:第一段明确主体,“human portrait, backlit”;第二段定义操作,“segment hair strands from complex background with fine edges”;第三段才是关键,“preserve original luminance gradients and specular highlights on hair, do not flatten image”。同时把原图的 EXIF 信息里关于镜头和光圈的参数也作为 metadata 附了上去。跑出来的结果,对了。发丝间的蓝天被干净地移除,但头发上那层金色的逆光晕染被保留了下来,甚至发梢的半透明感都在。这感觉就像你终于教会了一个极其聪明的实习生,他之前只会机械执行“删除A保留B”,现在能理解“我要的是看起来自然的那种效果”。
这件事让我想起2021年,我刚开始研究低卡食谱的自动化推荐系统。用户说“想吃点清爽的”,这他妈比“保留光影”还模糊。你得拆解:清爽=低油脂+高水分+冷食倾向+可能包含酸味调味。对应到数据,就是营养成分表里的脂肪含量、食材的水分百分比、烹饪方法字段是否为“凉拌”、以及是否有柠檬或醋的标签。现在指挥 AI 干脏活累活,逻辑一模一样。你不能只有直觉,你得把直觉翻译成可执行的、结构化的描述符。AI 是引擎,但通往正确结果的管道,必须由你的领域知识来铺设。
今天这个测试,我会更新进我的 n8n 工作流里。触发条件是接收到客户发来的“需精细抠图”的图片,自动调用 Rembg Pro 的最新推理端点,但提示词模板会内置我今天拆解的那三层结构。同时,加一个后置检查节点,用另一个视觉模型去评估输出图像与原图在亮度分布直方图上的相关性,低于阈值就自动打回重调参数或转人工。
十年前,我焦虑的是不会写多线程爬虫,怕被 SEO 算法淘汰。五年前,我焦虑的是管不好团队,交付总延期。现在,我焦虑的是能不能把我的“感觉”,我的那种对“自然”和“正确”的直觉,最大限度地封装成 AI 能理解的指令。这活儿没有代码那么硬,但比代码更费神。它要求你既是产品经理,定义那个模糊的“好”;又是教练,把“好”拆解成可训练的动作。也许这就是 Flovico 这个 IP 接下来要持续输出的核心:不是教人用哪个工具,而是教人如何把自己的专业直觉,变成驱动工具的咒语。














