40岁,我开始理解那些在锦江边钓鱼的中年人(续)

看到 Sam Altman 被解雇那条推送,我第一反应是去检查我的 n8n 工作流。不是震惊,是生理性的胃部抽搐。三个正在跑的自动化流程,核心节点全挂着 OpenAI 的 API。如果服务真停了,客户明天早上收到的就不是日报,是一串报错日志。这他妈比我自己失业还吓人。

我立刻切到备用方案文档,里面列着 Anthropic 的 Claude、Google 的 PaLM,甚至国内几个大厂的接口。但没用,工作流里那些精心调教的 prompt、那些依赖 GPT-4 特定输出格式的后处理节点,不是换个模型就能无缝对接的。这就好比你的汽车发动机突然被没收了,给你个拖拉机头,告诉你“都是动力装置,凑合用吧”。代码不会跟你凑合,它只会崩溃。我盯着监控面板上绿色的“运行中”状态,感觉它随时会变红。那一刻我理解了什么叫数字时代的脆弱性:我的生产力,我引以为傲的“超级个体”技术栈,地基是租来的。

去年我还在嘲笑那些把业务全绑在微信生态上的同行,说他们不懂“去中心化”。现在我自己呢?我把认知和技能全押在了 GPT 这套范式上。我花了四个月,从 Function Calling 到 Assistant API,把 OpenAI 那套工具链摸得门儿清,用 n8n 像搭乐高一样拼出自动化的流水线。我以为我站在浪潮之巅,其实我只是在 OpenAI 这艘大船的甲板上,给自己搭了个挺好看的棚子。船要是沉了,棚子再漂亮也得跟着喂鱼。这种焦虑和 2017 年死磕百度 SEO 算法时一模一样——你研究了一整年的 DOM 树渲染和内容聚合规则,百度算法一次大更新,你的站就从首页直接消失。历史不会重复,但押韵,押得你心惊肉跳。

所以我今天干的唯一正事,就是强行给每个关键工作流加“开关”。写脚本,用环境变量控制路由:如果检测到 OpenAI 服务异常,自动降级到本地跑的 Llama 2 模型,哪怕输出质量打七折,至少流程能不中断地跑下去。这活儿枯燥,没技术含量,就是不断的 if-else 和错误捕获。但这就是中年人的技术生活:炫酷的、改变世界的部分永远属于 Sam Altman 那种天才少年;而我们这种老帮菜,职责是修防洪堤,是在狂欢的派对旁边默默检查逃生通道的指示灯,确保天花板塌下来的时候,自己那一亩三分地别瞬间断电。

搞到晚上,我把几个核心流程的冗余部署弄完了。瘫在椅子上,忽然想起白天在锦江边看到的那些钓鱼的人。我以前觉得他们是在浪费时间,现在有点懂了。他们钓的不是鱼,是一个“系统”。江水一直在流,鱼情随着天气、水温、时辰变化,就像不断更新的 API 和算法。他们的乐趣在于调试自己的钓组:浮漂的吃铅量、子线的长度、饵料的雾化状态——一套针对当前“环境参数”的最优解。他们不指望今天一定爆护,但他们确保,只要坐在这里,这套方法就能持续地、低功耗地运转,偶尔给你一两条鱼的正反馈。这他妈不就是我们搞自动化追求的状态吗?一个稳定、自适应、不轻易崩溃的系统。区别只在于,他们的系统锚在物理世界的江河里,而我的,锚在几家硅谷公司喜怒无常的服务器上。

Sam Altman 会不会回归,OpenAI 会不会乱成一团,我控制不了。我能控制的,就是明天开始,把 Anthropic 的 API 密钥也填进我的配置表,再研究研究怎么用 LangChain 把模型抽象层做得更结实点。鸡蛋不能放一个篮子里,这道理我十年前做爬虫时就懂——那时候要多线程、要换 User-Agent、要处理各种反爬的 403。现在篮子变成了 AI 巨头,道理却一点没变。只是当年防的是网站管理员,现在防的,是可能一夜之间颠覆你所有工具的董事会。技术进步了,焦虑的源头,却还是那么原始。

© 版权声明
THE END
喜欢就支持一下吧
点赞52 分享