既然不想招人,我就用 Agent Swarm 编排了我的“海外推广部”。这想法听起来挺酷,但真正让我动手的,是八月初那场京津冀特大洪涝。网上求救信息像洪水一样涌出来,又很快被淹没,我盯着屏幕,那种熟悉的技能焦虑又上来了——妈的,我学了这么多年爬虫、自动化,除了给甲方做数据抓取报表,还能干点啥?
我立刻停了手头所有“海外推广”的模拟项目。什么SEO关键词、社媒发帖排期,在生命面前都是狗屁。我需要一个能7×24小时盯着微博、抖音、小红书、贴吧的“眼睛”,把求救信息(带具体地址、联系人、需求)扒下来,自动清洗,再生成一个实时更新的在线表格,分发给能对接上的救援队。这活儿要是在2016年,我得写死,光对付各平台的反爬和动态加载就能掉一层头发。但现在,我有大模型。
具体流程是这样的。我用n8n搭了个骨架,这玩意儿现在是我的数字肌腱。第一个Agent,我管它叫“哨兵”,就是个强化版爬虫。但它不直接解析DOM树了,我喂给它一些典型的求救帖样本,让GPT-4给我写了一套“信息提取提示词”。这提示词得识别出模糊表述,比如“我家在XX村东头老槐树后面”,它得结合上下文和之前提取过的规范地址,尝试去匹配和补全。对付抖音和快手的视频,我让“哨兵”调用语音转文本API,再把文本扔给大模型提取关键实体。频率限制是个大问题,我设了随机延迟和多个备用API密钥池,模拟人类浏览的节奏,这时候当年做微信小程序抢购时练出来的“猥琐流”技巧全用上了。
信息抓回来是乱麻。第二个Agent“整理员”上场。它的核心提示词我改了不下二十遍,一开始它总把“需要水和食物”跟“有水和食物可以提供”搞混,这他妈是要出人命的。我不得不加入强制分类逻辑:先判断是“求救”还是“援助”,再抽取地点、人数、紧急程度(用关键词匹配,比如“老人婴儿”、“断药”、“危房”会触发高级别)。地点是最难搞的,同一个村有七八种叫法,我建了个简陋的地理别名库让“整理员”去查询和标准化。标准化后的数据,流入Airtable。
第三个Agent“分发者”最简单也最沉重。它盯着Airtable里新标记为“已验证-待分发”的行,按照救援队的不同标签(比如“房山区域”、“有舟艇”、“有医疗”),把信息摘要和原始链接打包,通过钉钉机器人发到不同的群里。发之前,它会用一句话总结:“涿州XX村,3人(含1婴儿),困于二楼,断水,联系电话138XXXX,最新报告于2小时前。” 这里我没用任何花哨的排版,白底黑字,确保任何手机在任何网络条件下都能最快速度看清。
干完这些,天已经亮了。我瘫在椅子上,没觉得多牛逼,只觉得累,一种虚脱般的累。我翻着自动生成的表格,看着那些陌生的地名和数字,突然想起2019年带团队那会儿,为了个APP的日活数据,跟下属拍桌子瞪眼。也想起2021年自己啃健身教练证的时候,觉得把身体数据化管理就是最高级的自律。真可笑啊。技术,代码,自动化流程,Agent Swarm这些听起来很未来的词,它们所有的精巧、复杂和所谓的“智能”,只有在试图对抗生命流逝的无力感时,才终于摆脱了那种玩具般的轻浮感,有了一点点的重量。
窗外确实有光透进来,但我不想描述它。我只知道,那个表格里的某一行,如果能快十分钟被某个有橡皮艇的人看到,那么我今晚熬的夜,我过去十年里所有因为技术焦虑而啃下的枯燥手册,才算真正有了第一个像样的意义。海外推广部?等等再说吧。














