Q1 总结就是一句话:我他妈被按在地上摩擦了三个月,然后爬起来,用刚学会的扳手,给自己拧出了一条活路。
这个春天,焦虑是24小时不间断的背景噪音。ChatGPT 4 Turbo 发布那天,我盯着那个上下文长度和降价公告,感觉像被人从背后用板砖拍了一下。我之前赖以生存的那些“技术壁垒”——什么精准的 prompt 工程、复杂的流程拆解、对特定领域数据的调教——一夜之间变得像纸糊的一样。API 成本降了,能力边界拓宽了,这意味着什么?意味着我去年还能收个几万块帮人做的“定制化智能方案”,现在一个有点基础的大学生用官方文档和几百美金就能搞个七七八八。这不是竞争,这是清除。旧地图在新大陆上彻底失效。
恐慌带来的不是瘫痪,是病态的自律。我把自己每天的日程表撕了,换成了一个军事化的补课清单。早上六点,灌一杯黑咖啡,不开电脑,先看论文。不是那种公众号解读,是 arXiv 上新鲜的、带着 LaTeX 公式的预印本,RAG 的检索增强到底是怎么在向量空间里做相似度计算的,ReAct 框架里那个“Thought-Action-Observation”的循环到底怎么用代码实现更稳定。看不懂?硬看。看十遍。然后去翻 LangChain 和 LlamaIndex 的源码,看他们怎么封装这些概念的。下午是实战,我把 n8n 的工作流画布当成了主战场。一个简单的需求:自动抓取指定竞品的推特更新,用大模型总结观点和情绪,再根据情绪判断是否要触发一个澄清回复的草稿。就这么个需求,我卡了整整一个星期。
卡点全是魔鬼细节。推特 API 的 V2 版本和之前的完全不是一回事,认证头、请求参数、速率限制规则全变了。n8n 里那个 HTTP Request 节点,配置项多到让人发毛。好不容易拿到数据了,往 OpenAI 的 API 扔,返回的 JSON 结构每次都得用 JSON 节点解析。最崩溃的是“智能”部分:你让模型判断“是否需要回复”,它有时候给你吐个“是”,有时候给你吐个“是的”,有时候甚至给你来一段分析最后说“因此我建议回复”。流水线要求的是确定性的布尔值,不是散文。我就在那个 Function Calling 和 Output Parser 上死磕,逼着自己用代码节点写格式化函数,确保从模型那乱七八糟的自由度里,榨出一颗规整的螺丝钉。
这个过程毫无诗意,就是拧螺丝,拧错了,滑丝了,换一根再拧。房间里堆满了草稿纸,上面画着各种数据流转的箭头。我戒了中午的外卖,改吃水煮鸡胸肉和西兰花,不是因为健康,是因为咀嚼那个过程能让我冷静,防止自己把键盘砸了。身体是唯一还能被我绝对控制的生产力工具,我得保证它别在精神崩溃前先垮掉。
三月最后一周,那个工作流终于跑通了。我设置它监控三个海外产品经理的账号,它安静地躺在服务器上,每隔二十分钟抓一次数据,分析,判断,把需要跟进的条目丢进我的 Notion 数据库。我看着那个自动新增的条目,没有兴奋,只有一种劫后余生的虚脱。我跑通的不是某个酷炫的 AI 应用,我跑通的是“如何让 AI 这个不确定的黑箱,成为我确定性流水线里一个可靠环节”的方法。这套方法里,包含了对陈旧 API 的重新学习,包含了在无代码工具里写代码的妥协,更包含了对大模型输出必须进行“机械降神”式强约束的觉悟。
旧技能被碾碎了,没错。但碎片被我捡起来,混合着新学的粘合剂,糊成了一个还能用的新容器。这个 Q1,我不是学会了 AI,我是被迫学会了如何与一个能力远超于我、但心智极不稳定的超级实习生协作。而管理它的第一步,就是给它制定滴水不漏的 SOP。2024年的战斗,这才刚刚响枪。














