既然 AI 视频已经到了 4K 电影级,我就给 Rembg Pro 写了个剧本

既然 AI 视频已经到了 4K 电影级,我就给 Rembg Pro 写了个剧本。这玩意儿是开源的背景移除工具,效果不错,但默认模型跑起来,我那台老 M1 MacBook Air 的风扇能原地起飞,内存占用直奔 8G 去。这不行,太奢侈了,独立开发者哪能这么烧钱。

我盯着它的代码看了半天,核心就一个 ONNX 模型文件,一百多兆。问题出在预处理和后处理上,原版为了通用性,搞了一大堆张量转换和图像插值,冗余计算太多。我的需求很简单:批量处理电商产品图,尺寸固定,背景相对干净。通用性?去他妈的吧,我要的是在咖啡厅用电池也能安静跑一下午。

第一步,砍掉动态尺寸支持。原版会根据输入图像动态调整计算图,这本身就是开销。我写死了输入尺寸 512×512,对于产品图够用了。在预处理里,我把 OpenCV 的 resize 换成了最邻近插值,省了那点浮点运算,肉眼根本看不出区别。

第二步,内存复用。原版每处理一张图,都重新分配内存给输入和输出张量。我改成了池化。初始化时就申请好固定大小的内存块,循环使用,避免频繁的垃圾回收。光是这一项,在处理一千张图的批量任务时,内存波动从过山车变成了平缓的直线。

最狠的是模型本身。我用 ONNX Runtime 的量化工具跑了一遍,把 FP32 的权重压成 INT8。精度损失?在背景移除这个任务上,边缘的细微噪点客户根本不在乎。但模型体积从 120MB 降到了 35MB,推理速度提升了快一倍。风扇彻底安静了。

现在这套魔改版,我称之为“乞丐版 Rembg Pro”。同样的活,它用 2G 内存就能跑得顺滑,耗电量只有原来的三分之一。我把它封装成一个简单的命令行工具,配合 n8n 做了一个自动化工作流:监测网盘特定文件夹,有新图片就自动抠图,压缩,然后上传到另一个云存储。整个过程在我的笔记本后台默默运行,不影响我同时开十几个 Chrome 标签页查 GPT 的 API 文档。

低成本就是护城河。当那些大厂和明星创业公司在炫耀他们需要 A100 集群才能跑的 4K AI 视频时,我关心的是怎么让一个五年前的中端笔记本,也能稳定产出价值。算力恐慌是他们的,我只要够用就行。把技术做薄,做轻,塞进更普通的硬件里,这才是独立开发者能活下来的缝隙。别人烧钱追求极限精度,我减重追求极限能效比。这剧本,比那些科幻大片实在多了。

昨晚测试,连续处理了 500 张图,电池只掉了 15%。合上电脑的时候,我突然觉得,对抗 AI 时代算力碾压的方式,不是去追最新的卡,而是成为最会“偷懒”的程序员。把每一焦耳的电、每一字节的内存都榨出价值,这种手艺,大厂看不上的,但足够我吃好多年了。

© 版权声明
THE END
喜欢就支持一下吧
点赞47 分享