李子柒复出的消息弹出来时,我正在用 Python 的 tkinter 手动调整 Rembg Pro 的滑块容差参数,从0.1调到0.09,就为了背景抠图时发丝边缘能少一个像素的杂色。AI泛滥?我太懂了。现在随便一个套壳网站,丢张图进去,调用个 API,三秒出结果,用户觉得“哇好智能”。但那种结果经不起放大看,边缘是糊的,复杂背景像狗啃的,商业级交付根本不能用。这就是现状:底层大模型能力越来越强,而上层交互和细节打磨却越来越糙,因为大家都觉得“有 AI 了,差不多就行”。
我盯着代码里那个 `threshold=0.09` 的变量,想起两年前第一次用 SAM 模型时那种被颠覆的恐慌。当时觉得,完了,我花了几年研究的传统图像处理算法、OpenCV 那套东西,在分割一切的大模型面前就是玩具。那种技能焦虑卷土重来,逼着我必须跳进去,弄明白 Diffusion、CLIP、LoRA 到底是怎么工作的。但学得越深,越发现另一个问题:工具链太他妈散了。你想做一个能稳定交付的抠图工具,光模型好没用,你得处理各种奇葩的输入格式,得设计预处理和后处理流水线,得让用户用最少的点击达到最好的效果——这恰恰是当前 AI 应用最缺失的一环。
所以我现在深夜抠的,根本不是 UI,是“确定性”。AI 本身是非确定性的黑箱,但产品必须给用户确定性的体验和结果。比如这个滑块,从 0.1 到 0.09,变化微乎其微,普通用户根本感知不到。但我必须做,因为我知道,对于电商那些要抠珠宝、抠毛绒玩具的客户,这一点点差异就是“能用”和“完美”的区别,是他们愿意付高价和觉得你只是个玩具的区别。这就是工匠精神在 AI 时代的具体形态:不是抗拒 AI,而是用人的经验和偏执,去约束和引导 AI 的野性,把概率性的输出变成稳定的交付物。
李子柒停更这几年,市面上模仿她的视频无数,滤镜、运镜、甚至内容框架都能用 AI 辅助生成,但为什么没人能成为第二个李子柒?因为内核的东西抄不了。那种对季节变化的敏感,对手工劳作节奏的掌控,对食材纹理的真实触感,是长时间沉浸在一个真实物理世界里才能养成的“肌肉记忆”。做产品也一样。现在用 GPT-4 十分钟能生成一个产品需求文档,用 Midjourney 能出一套 UI 概念图,但真正的产品内核——对用户隐性痛点的洞察,对交互流程中每一个摩擦点的体感,对技术边界和体验平衡的拿捏——这些依然需要你像老工匠一样,在无数个深夜,亲手去“磨”出来。
我保存了代码,跑了一次测试。一组五十张带复杂藤蔓植物的图片,批量处理。之前通用 API 扣出来的,藤蔓间隙里的天空总会有残留的蓝色像素点,像噪点。现在,调整了预处理的光照归一化算法,加上后处理的形态学闭运算,蓝色点几乎没了。这个过程毫无“智能”感可言,就是枯燥的试错、观察、再调参。但当我看到最终输出文件夹里那些干净得不可思议的 PNG 透明背景图时,有种很扎实的满足感。这种满足感,和看到流量暴涨、用户激增完全不同,它是一种安静的、确信的、属于创造者自己的反馈。
AI 终将成为水电煤,成为基础设施。到那时,真正的壁垒是什么?不是谁调用 API 更快,而是谁更懂在哪个具体场景下,该把阈值设为 0.09 而不是 0.1;是谁更能把一系列不确定的 AI 工具,组装成一个确定性地解决真实问题的产品。李子柒回归,她面对的也是一个被短视频和滤镜高度同质化的内容世界。她的壁垒,依然是那一方真实的土地和岁月。我的“土地”,就是这行代码,这个像素,这个深夜还在反复打磨的交互细节。泛滥的是技术,稀缺的永远是注入其中的、人的专注与时间。














