排海新闻弹窗出来的时候,我正在调试一个基于 LangChain 的本地知识库问答链,RAG 的召回率死活上不去,满脑子都是 chunk 策略和 embedding 模型选型。屏幕右下角连续闪了七八条群消息,全是感叹号和那个词。我下意识切过去,手指悬在键盘上,准备跟着敲点什么——这是 2016 年的我肯定会做的事,立刻追热点,用爬虫抓一波情绪数据,搞个舆情分析仪表盘,说不定还能蹭点流量。
但我停住了。今年我 38 岁,按我自己的阶段划分,正卡在“AI 核爆”期的中间。ChatGPT 把我过去十年攒的那些“技术优势”——什么精准爬虫、复杂规则引擎、自动化脚本——轰得渣都不剩。新的恐慌还没消化完,旧的条件反射又来了。这种“热点焦虑”太熟悉了,本质上和当年死磕 SEO 算法、研究微信裂变黑盒没什么区别,都是试图在信息的混沌初期抓住一个确定性抓手,用技术动作来缓解内心的不确定感。但这次,我强迫自己把聊天窗口关了,甚至把手机调成了勿扰。
不是不关注,是太知道接下来会发生什么了。接下来的 24 小时,社交媒体会完成一次标准的情绪坍缩:从震惊、愤怒,到各种角度的阴谋论解读、真假难辨的“内部消息”,再到段子、梗图、抵制清单的病毒式传播,最后沉淀为几个非黑即白的阵营标签。每一个环节都会产生巨大的流量漩涡,也会制造出同等剂量的信息垃圾。作为一个靠逻辑和交付吃饭的独立开发者,跳进去除了消耗情绪和注意力,能得到什么?一个可能被封的公众号爆文?一堆需要熬夜处理的、充满情绪化脏数据的爬虫任务?还是几个根本无法理性讨论的“客户”?
我想起 2019 年,团队接了个舆情监控的大单。那时候我们自恃技术牛逼,用多线程+分布式代理池狂爬微博和贴吧,试图实时绘制情绪热力图。结果呢?API 频率限制和反爬策略天天变,DOM 树改得亲妈都不认识,团队一半人力耗在维护爬虫上。更讽刺的是,基于这些噪音数据做出的“趋势预测”,客户看了直摇头,说不如他们市场部小姑娘刷朋友圈的感觉准。那一次我赔了钱,更赔了对“技术至上”的迷信。数据量再大,如果源头是情绪化的碎片,喂进去的只能是垃圾,产出的也不会是黄金。
所以这次,我给自己定了规矩:第一,不参与实时讨论。让信息飞一会儿,让子弹拐几个弯。第二,只信信源,不信解读。直接去看 IAEA 的报告原文(哪怕只是摘要),而不是看十个博主用十个姿势解读这份报告。第三,也是最重要的,问自己一个问题:这个事件,对我的核心业务——也就是为中小商家提供 AI 自动化流程——会产生任何实质性的、可操作的、非情绪化的影响吗?答案是,目前看不到。那么,它就该和窗外 24 度的冷空气一样,只是一种背景环境。
这不是冷漠,是中年手艺人对自己注意力资产的强制风控。AI 时代的信息过载和情绪渲染能力是指数级增长的,GPT 能在一秒内生成一百篇不同立场的檄文。如果还被 2016 年那套“追热点、抓流量”的肌肉记忆控制,我的大脑 CPU 会永远被这些高频低效的进程占满,根本没剩余算力去啃透 Transformer 架构或者搞明白 n8n 里那个该死的循环节点怎么调试。
深夜的冷气从空调口嘶嘶地往外冒,我泡了杯热茶——不是提神,是暖手。屏幕切回代码编辑器,那个恼人的 RAG 问题还在。但此刻心是静的。我忽然觉得,读懂技术周期和读懂商业周期、社会情绪周期,底层逻辑是一样的:识别噪音,找到基底信号,然后把自己的全部资源 All-in 在能产生长期复利的那条曲线上。窗外世界喧嚣,我的任务是把这条问答链的响应时间优化到 2 秒以内。这很具体,也很难,但这是我 38 岁该干的活。














