既然隐私是 SaaS 唯一的溢价,我就用端侧算力实现了本地“盲抠”。感受电脑掌托处传来的极其微弱的震动,那是 M3 Max 的神经引擎在满负荷运转,处理一张 8K 产品图,而 Rembg Pro 的模型就在我本地,没往任何云端服务器发送哪怕一个字节。
2025年了,你还在用那些需要上传图片的在线抠图工具?我早就戒了。不是技术洁癖,是商业直觉被现实毒打出来的条件反射。2019年那会儿,我们团队给一个珠宝品牌做小程序,用了某大厂的图像处理 API 做商品图优化,结果三个月后,竞品店里上了几乎一模一样的爆款设计,连拍摄角度和光影细节都像得离谱。客户直接炸了,尾款没了,团队散了,我蹲在空荡荡的办公室里抽了半包烟,才想明白问题可能出在哪——那些“免费”或“廉价”的 API,喂进去的数据,就是别人训练下一个爆款模型的饲料。从那天起,我就对“云端处理”这四个字有了生理性厌恶。
所以当 Rembg Pro 这类端侧 AI 抠图工具出现时,我像抓到了救命稻草。但早期的版本,就是个玩具。处理 1024×768 的图还行,一到高分辨率,要么慢得像便秘,要么直接内存溢出崩溃。那时候的端侧算力,就像个营养不良的孩子,空有框架,使不上劲。
转折点是去年底。苹果的 M3 系列和 NVIDIA 的 RTX 40 Super 笔记本 GPU 开始普及,端侧推理的算力瓶颈被暴力破解了。我拿到 M3 Max 本子的第一件事,就是重新编译部署了 Rembg Pro 的最新 ONNX 模型,用 Core ML 和 Metal Performance Shaders 重新优化了推理管线。结果让我头皮发麻——一张 6000×4000 的 RAW 转 JPG 图片,带复杂毛发边缘(以前是云端算法的护城河),本地抠图只用了 2.3 秒,CPU 占用不到 15%,GPU 安静得像没工作,但掌托那点温热的震动告诉你,神经引擎正在疯狂吞吐数据。
这才是真正的“盲抠”。不是闭着眼睛乱抠,而是整个过程对你、对网络、对任何可能的窥探者而言,都是“盲”的。数据流从 SSD 到内存,再到 NPU,最后输出透明通道 PNG,整个路径长度不超过 15 厘米,被物理边界锁死在我的铝镁合金机身里。什么 MITM 攻击、云端日志泄露、训练数据回收,这些风险归零。这种安全感,是任何 SLA 协议都给不了的。
我甚至开始用 n8n 搭建本地自动化工作流。相机 SD 卡插入,自动触发图像导入,Rembg Pro 批量处理,抠好的图按预设模板排版,直接推送草稿到我的内容管理后台。全程离线。以前这套流程要依赖三个不同的 SaaS,月费加起来小一千,数据还要在他们的服务器里旅游一圈。现在?一次性的软件购买成本(或者干脆是开源方案),加上本地算力的沉没成本,边际成本几乎为零。
隐私成了 2025 年 SaaS 唯一的、也是最后的溢价。当功能同质化到可以用同一套开源模型微调出来,当接口相似到可以一键切换,用户凭什么为你付费?就凭你那份写得天花乱坠但执行起来漏洞百出的隐私政策?别逗了。真正的溢价,是让数据永远不必离开用户的设备。这是技术架构的彻底转向,从“中心化处理-分发结果”到“分发模型-本地处理”。端侧算力的爆发,终于让这个梦想照进现实,哪怕它此刻只是我掌下这一点微弱的震动和温热。
那些还在鼓吹“全栈上云”的布道者,该醒醒了。云是管道,是基建,但它不该是数据的终点站。未来的溢价服务,是卖那把锋利的、能在家门口自己处理一切的“刀”,而不是替你保管食材还抽成的“中央厨房”。我这十年,从迷信云端万能,到被云端背刺,再到现在亲手把计算权夺回本地,算是一个迟到的闭环。掌托的震动停了,任务完成。图片在本地文件夹里静静躺着,背景干净透明,像从来没去过别处一样。














