既然不想招人,我就把每一个 API 都串成了“自动化流水线”

既然不想招人,我就把每一个 API 都串成了“自动化流水线”。昨天那事儿一出来,我手机就没停过,所有群都在刷屏,各种截图、视频、小道消息像洪水一样冲过来。我第一反应不是震惊,是本能地打开了我的 n8n 工作流后台,看那几个监控推文、Reddit 热帖和几个特定 Telegram 频道的节点是不是在疯狂报警。果然,曲线全炸了。

这种时候,人的情绪是最好被利用的燃料。十年前我搞爬虫那会儿,就为了抢一个热点事件的先发流量,通宵写脚本抓微博评论,分析情感倾向,想预判舆论走势。那时候技术糙,靠的是多线程硬怼,经常触发反爬,IP 被封得妈都不认识。现在呢?大把的现成 API,情绪分析、实体识别、摘要生成,甚至深伪检测都有接口。但工具越高级,我越觉得后背发凉。昨天我那条流水线,在事件发生后的 17 分钟内,抓取了超过 3000 条来自不同平台的“核心信源”推文。然后自动去重、翻译、用几个不同的情绪模型打分,最后按“愤怒值”、“恐慌指数”和“传播节点权重”生成一份动态报告。报告显示,在事件确认后的第 23 分钟,一个此前粉丝不到 200 的账号发布的一条未经证实的指控性视频,其情绪煽动性评分突然被算法拉高,并在随后一小时内被 47 个“枢纽型”账号同步转发,形成了第一波舆论海啸。这一切都是自动发生的,我的干预只是在报告生成后,默默删掉了那条准备跟风发点“深度分析”的朋友圈草稿。

我删掉是因为我知道,我也是这个流水线的一部分,甚至是更下游的那一环。我的焦虑,我对信息的饥渴,我对“掌握全局”的幻觉,正是这套自动化系统赖以生存的土壤。2019 年我带团队那阵,恨不得招三个人专门做舆情监控,人工盯屏,累死累活还总慢半拍。现在好了,一个人,几台服务器,一堆 API 密钥,就能搭建一个 24 小时不眠的“信息消化系统”。但系统消化完,产出的是冰冷的指标和关联图,它不告诉你什么是真的,它只告诉你什么在“燃”。真相的拼图可能散落在这些数据里,但拼接的逻辑,判断的权重,最终还是落回我这个人身上。而这恰恰是最累的,因为你要时刻对抗系统给你的“提示”——它不断高亮那些情绪峰值,暗示你“快看,这里流量最大,快跟进”。

这让我想起去年死磕低卡饮食和健身数据监控的时候,我给自己的体脂秤和运动手环也搭了条流水线,数据同步到 Notion,自动计算热量缺口,生成周报。当时觉得,把身体数据化,就能摆脱主观感受的欺骗,更“科学”地管理自己。但后来发现,当我过度关注那条体重下降的曲线时,我反而忽略了睡眠质量和情绪压力这些系统没录入的指标。信息自动化带来了效率,也带来了新的盲区。它用可量化的部分,淹没了那些无法量化的、但可能更重要的东西。

所以现在,我给我的“信息流水线”加了一个很笨的节点:每收集到 100 条高传播物料,就必须随机给我推送其中 5 条原始信息,强制我去看原始的、未经翻译和摘要的文本或视频片段。我要逼自己去看那些生涩的、充满噪音的、甚至语法都不通的内容。我要感受信息原本的粗糙质地,而不是只消费经过我自己的算法清洗和提纯后的“精华”。自动化应该是我延伸的感官和手脚,不能让它变成我全部的大脑和心脏。尤其是在这种全民情绪过载的时刻,守住自己那一点笨拙的、低效率的、亲自验证的冲动,可能比写出多么精妙的爬虫脚本都重要。流水线永不停转,但坐在监控屏前的人,得知道自己什么时候该站起来,走出去,关掉屏幕,看看窗外真实的世界正在发生什么——哪怕那景象让人无比难受。

© 版权声明
THE END
喜欢就支持一下吧
点赞56 分享