上海强制垃圾分类第一天,我连夜上线了识别脚本。这玩意儿本质上就是个缝合怪,用 requests 库爬了官方发布的分类名录,存成个本地 JSON 数据库,前端用 Flask 搭了个简陋页面,核心是调了某云的通用图像识别 API,把用户上传的垃圾图片打上标签,再去本地数据库里模糊匹配。
数据库爬得我头疼。官方 PDF 转的表格,DOM 结构乱七八糟,写正则写到眼冒金星。有些条目,“湿纸巾”算干垃圾,“干香菇”又是湿垃圾,规则本身比代码还魔幻。为了蹭这波流量,必须快,API 选型根本没时间细抠,哪家文档全、有现成 Python SDK 就用哪家。调参的时候,发现“榴莲壳”和“椰子壳”总被识别成“水果”,但规则里它们都是干垃圾,硬是在后处理逻辑里加了一堆 if-else 强行修正,代码丑得没法看。
凌晨两点,服务器报警了。并发上来一小波,主要是几个本地生活号转载了我们的小工具链接。云服务账单后台,图像识别调用次数和费用曲线一起往上跳。那一刻不是兴奋,是心里一沉。我知道这种热点工具的生命周期有多短,可能就一周,最多半个月。用户新鲜劲一过,或者微信一封杀诱导分享,流量瞬间归零。但服务器和 API 的费用是实打实的,按次计费,调用越多我亏得可能越狠。
当时团队已经拉起来了,五六个人等着发工资。这种项目根本不敢让他们插手,沟通成本比开发成本还高,不如我自己通宵搞完。我盯着监控面板,看着那些陌生的 IP 地址上传各种模糊的垃圾照片,调用着昂贵的识别服务,然后可能只用一次就关掉页面。技术在这里变成了纯粹的流量消耗品,没有沉淀,没有壁垒。我用的所有东西——爬虫、Flask、第三方 API——都是公开的、可替代的,唯一的价值就是“快”。但这种“快”有什么意义?帮一个上海市民在扔垃圾前查了五秒钟,然后呢?
我甚至能想象出后续:热度一过,代码扔在服务器上吃灰。但为了应对可能的长尾零星访问,服务器还不能马上关,每个月几百块的固定支出就这么挂着。团队里有人可能会说“老板我们做个 App 吧,沉淀用户”,我心里只想骂人,沉淀个屁,这种工具属性单一、用完即走的需求,做 App 就是找死。但这话又不能明说,打击士气。
更深层的迷茫是技术人的价值焦虑。我 2016 年死磕爬虫和逆向,觉得手里有技术就有安全感。现在呢?技术成了最不值钱的部分,随便一个开源框架加几个云服务 API 就能快速搭出个东西。核心竞争力变成了对热点的嗅觉、执行的速度和流量的获取能力。而这恰恰是我最不擅长的,也是我觉得最“虚”的。我擅长解决具体的技术问题,比如优化一个匹配算法,把准确率从 85% 提到 92%。但在商业层面,这 7% 的提升毫无意义,用户根本感知不到,也不会为此付费。
窗外的上海安静了,但我知道明天早上七点,无数人会在垃圾桶前掏出手机。我的脚本会迎来又一波请求高峰。我会暂时把账单焦虑放一边,去享受那一点点“我的代码正在被很多人使用”的虚幻成就感。但等峰值过去,那种空荡荡的怀疑又会回来:我写的这些临时性的、应急的、针对某个短暂社会热点的代码,除了消耗我的时间和云服务费,还剩下什么?技术如果无法形成可复用的资产,或者无法直接、高效地变现,那它对于我这个需要养活团队的创业者来说,是不是一种奢侈的自我感动?
也许明天,我应该让实习生去写篇推广文章,试试能不能接点垃圾袋或者垃圾桶的电商广告。虽然很 low,但至少,电费能赚回来吧。














