苹果发布 M1 芯片,我第一时间看了发布会。看完之后,我做的第一件事是打开我的 2018 款 MacBook Pro,跑了一下那个用 Python 写的、处理电商图片背景的批处理脚本。进度条慢得像在爬,风扇开始嘶吼。那一瞬间,不是兴奋,是烦躁。我他妈花了一万五买的“生产力工具”,在真正的生产面前,像个笑话。
这种烦躁很具体。我的“Flovico Rembg Pro”脚本,核心是调用一个开源的 Rembg 库,但为了处理电商平台那些千奇百怪的图片——透明 PNG 边缘毛刺、JPG 压缩导致的色彩断层、背景杂物干扰——我加了太多预处理和后处理。用 OpenCV 做轮廓增强,用 PIL 做颜色空间转换,甚至为了应对某些平台诡异的图片尺寸,还嵌了个图像智能裁剪的模型。每一个环节都在吃 CPU,都在等 I/O。客户那边要得急,一次传过来 500 张图,脚本一跑就是半个多小时,这期间我什么也干不了,只能盯着终端里滚动的日志,听着风扇的噪音,心里计算着时间成本。效率?我的效率被这台电脑的物理极限卡得死死的。
苹果 M1 讲的是什么?统一内存架构,让 CPU 和 GPU 像在一个池子里捞数据,没有延迟。神经网络引擎,专门处理那些矩阵运算。这些词砸过来,我脑子里对应的不是未来科技的炫酷,而是我脚本里那些循环嵌套、那些等待数据从内存搬到显存再搬回来的空转时钟周期。大厂在干嘛?他们在用硬件补贴生态。M1 芯片成本高吗?可能高。但苹果赌的是,开发者会为了这恐怖的性能,主动优化自己的应用,把整个 macOS 生态铸成一座更高的墙。最终用户为流畅体验付费,开发者被绑定在更高效的平台上,苹果收的是生态税和硬件溢价。这是阳谋,赤裸裸的。
这让我不得不重新审视“Flovico Rembg Pro”的定价策略。过去半年,我靠它和一些中小电商客户维持着现金流。我的卖点是“深度定制”:你们平台图片的奇葩问题,我能修。所以定价比单纯调用个 API 贵不少。客户也认,因为他们自己搞不定那些边缘毛刺。但这里有个致命问题:我的“深度”是建立在软件算法缝缝补补上的,是“慢工出细活”。如果,未来某个大厂,基于 M1 这类芯片的硬件加速,推出了一个速度极快、效果还不错的通用抠图 API,价格打到地板,我怎么办?我的“深度”还能溢价吗?
可能不行。硬件层面的降维打击,会让“够用”的门槛变得极高。当别人一秒处理十张图,我还在为一张图的完美边缘多花两秒时,客户不会为这两秒的“完美”付十倍的钱。他们会选择“很快且还不错”的那个。除非,我的“深度”能触及他们业务的更核心痛点——比如,不仅仅是抠图,而是直接连上他们的商品管理系统,根据抠图结果自动生成白底图、场景图、营销素材,并且这个流程无法用标准化的 API 简单拼凑。这就不再是一个工具脚本,而是一个业务解决方案。但这又需要投入更深度的开发,对接更多系统,意味着更重的交付。我刚刚从 2019 年那种人困马乏的团队管理泥潭里爬出来,实在不想再跳进去。
今晚的焦虑很实在。一边是苹果用硬件重新定义“基础效率”,一边是我这个小个体户还在用时间堆砌“功能深度”。或许该变一变了。与其死磕抠图算法那最后 5% 的效果提升,不如想想怎么用脚本,把抠图的前后流程——图片分类、命名规则、上传到不同平台——全部自动化。用流程的效率,去对抗单点算法的效率。M1 让单点更快,那我就让整个链条更顺。对,硬件是别人的壁垒,但自动化流程的设计能力,暂时还是我的壁垒。得赶紧把 n8n 或者类似的自动化平台玩得更透,把“Rembg Pro”从一个工具,升级成一个触发工作流的节点。客户买的不是抠图,是“从混乱到上线”的无感过程。这个,或许还能溢价。
风扇还在响。我合上 Mac,知道它很快会被淘汰。但淘汰它的不是 M1,而是那种以为拥有一个强大工具就拥有生产力的错觉。真正的生产力,是知道工具总会过时,而你必须跑在它前面,设计出即使用旧工具也能碾压别人的流程。明天,先给脚本加个多进程支持吧,把这台老 Mac 的剩余价值榨干再说。














