李文亮医生去世的那晚,我关掉了所有的爬虫监控

李文亮医生去世的那晚,我关掉了所有的爬虫监控。服务器上还有十几个脚本在跑,抓微博热搜、爬知乎热榜、监控几个关键公众号的更新,数据流像往常一样在后台无声地涌动。我一条条 kill 掉进程,看着终端窗口一个个黑下去,突然觉得这些代码构建的“信息感知网”空洞得可笑。

微博崩了又恢复,恢复又变慢。我刷新着页面,看着“武汉肺炎”超话里从祈祷变成哭墙,再变成愤怒的海洋。爬虫日志里记录着关键词出现的频率曲线在今晚几乎垂直上升,触发了我们预设的十几次报警阈值。按照往常的“运营策略”,这时候应该立刻写篇热点分析,用数据可视化做张图,赶在凌晨前发出去抢流量。但今晚我连打开数据分析后台的欲望都没有。那些曲线、柱状图、情感分析的正负向百分比,在真实的死亡和集体的悲恸面前,像一堆彩色塑料片一样轻飘无力。

团队群里还有人@我,问要不要趁热点做个“疫情信息聚合”的小程序方案,说流量肯定爆。我没回。脑子里全是技术人的那种无力感——你懂多线程优化,能绕过反爬的IP封锁,甚至用机器学习模型去识别页面改版后的DOM结构变化,但你面对一个系统性的悲剧时,你那些精巧的代码连一句像样的人话都说不出来。API返回的是JSON数据,不是良知;爬虫抓取的是文本字符,不是真相。我们这些搞技术的,有时候太沉迷于“能做什么”,却很少停下来想“该不该做”。

那晚我坐在电脑前,没写一行代码。就看着屏幕暗下去,映出自己一张疲惫又茫然的脸。团队今年扩张到七个人,接了一堆项目,流水账面上是好看,但每个人都累得像狗。我白天要跟甲方扯皮需求变更,晚上要检查新人写的爬虫有没有留下太明显的指纹,担心服务器会不会因为请求频率过高被拉黑。所谓的“创业”,就是把自己从一个写代码的人,变成一台处理焦虑、琐碎和人际摩擦的机器。自由?早就没了。当初学爬虫,学Axure画原型,学Python自动化,以为掌握了这些工具就能更自由地获取信息、创造价值。现在呢?工具成了枷锁,信息成了负担。

凌晨四点,窗外还是黑的。我打开一个很久没动的私人项目文件夹,里面是几年前写的一些小工具,其中一个脚本是用来监控某个特定论坛里关于医疗话题的讨论。当时写它,纯粹是出于技术人的好奇,想看看能不能从零散的帖子中提前发现一些异常信号的苗头。后来项目忙,就丢在那里再没跑过。现在看着它,心里像堵了块石头。技术本身没有善恶,但技术人的选择有。我们追逐热点、榨取流量、把人的情感和苦难变成数据点去分析,这套玩法是不是从一开始就跑偏了?

天快亮的时候,我把那个尘封的监控脚本彻底删了。不是出于什么高尚的顿悟,就是单纯地觉得,有些东西不该被“监控”,有些时刻不该被“分析”。团队明天还要开会,还有新的KPI要定,爬虫停了明天还得重新启动,因为客户的钱已经收了。但至少今晚,让那些脚本都安静会儿吧。在这个语言失效、技术失语的夜晚,沉默也许是唯一还能守住的东西。

© 版权声明
THE END
喜欢就支持一下吧
点赞78 分享