苹果发布会刚结束,M3芯片的神经网络引擎算力又翻了一倍。我盯着屏幕上的性能曲线图,脑子里算的不是换不换新Mac,而是Rembg Pro的抠图速度能快多少毫秒。
这玩意儿是我年初用PyTorch和ONNX Runtime攒出来的本地背景移除工具,核心就一个轻量化的U2-Net模型。之前跑在M1 Max上,处理一张4K图大概要1.8秒,用户等得起,但我的焦虑等不起。每次看到用户点下“处理”按钮,那转圈的小菊花,都像在提醒我:云端API是即时的,你凭什么让人等?现在M3来了,理论上能压进1秒内。一秒是个心理门槛,过了,用户才觉得是“瞬间完成”。为了这零点几秒,我得重新编译整个推理管线,适配新的Core ML框架,又是一轮掉头发的折腾。
但值。2024年,独立软件的机会就在这儿。大厂都在卷云端大模型,张嘴闭嘴都是千亿参数、万亿token,但真实世界的需求碎片得要命。一个设计师,他不需要能写诗画画的AI,他只需要三秒钟把产品图背景抠干净,而且不想把图片上传到任何人的服务器。这就是Rembg Pro存在的全部理由。云端AI是水电煤,但总有人需要一把锋利的、自己握着刀柄的瑞士军刀。
开源社区现在很分裂。Llama 3还没捂热,就在猜Llama 4会不会彻底闭源。Meta的心思谁都懂:用开源生态把市场教育好了,再收网做商业变现。这几天Hugging Face上几个热门repo的讨论区,全是这种悲观论调。有人说这是开源最后的反击,得赶紧在围墙彻底砌起来之前,把能fork的模型、能复现的架构都备好份。我倒觉得,这可能反而是开源的全面胜利。
因为硬件跟上了。M3这种芯片,让70亿参数的模型能在笔记本上流畅对话,让Stable Diffusion能在本地出图。开源模型最大的短板——推理效率,正在被端侧算力硬生生补平。当每个人口袋里都有一块能跑AI的芯片时,闭源大模型那点精度优势,在“免费、可控、隐私”面前,说服力还剩多少?未来的战场不再是“谁的模型更大”,而是“谁的模型更懂在指甲盖大小的芯片里跳舞”。这才是独立开发者的黄金时代:不用再跪求GPU配额,不用再为API调用次数提心吊胆,一台顶配笔记本就是你的全部军火库。
我翻了翻Rembg Pro的后台数据,70%的用户是海外独立站店主和中小设计工作室。他们付费干脆,需求明确,极度厌恶订阅制。这印证了我的判断:下一波软件付费浪潮,是为一锤子买卖的专业工具买单。用户烦透了Adobe那种全家桶订阅,也信不过把设计稿喂给Midjourney当训练数据。他们愿意为一个个解决具体问题的、离线的、买断的“小玩意”付费。这种需求,大厂看不上,也做不了——他们的组织架构就决定了只能做平台,做不了手术刀。
窗外的城市已经暗了,只有代码编辑器泛着冷光。我保存了为M3优化的测试脚本,它跑一遍基准测试大概要四十分钟。这四十分钟里,Llama 4的论文可能正在某个服务器上生成最终版。但无所谓了。开源或闭源,云端或本地,最终赢的都是能把手里的工具用到极致的人。我的武器库,就是这台即将过时的电脑,和里面几十个正在默默运行的Python进程。














