既然一个人写不过来,我就弄了个自动化伪原创系统 (Agent版)

既然一个人写不过来,我就弄了个自动化伪原创系统。Agent版。这玩意儿上个月刚跑通,现在每天能给我吐出几十篇“原创”内容,分发到知乎、头条、公众号和一堆垂直论坛。看着后台那些自动增长的粉丝数和咨询私信,有种诡异的平静——不是兴奋,是那种“终于不用自己吭哧吭哧爬格子了”的解脱感。妈的,2024年了,谁还用手写?

去年被ChatGPT锤懵之后,我花了整整半年在补课。从LangChain到AutoGPT,再到现在的CrewAI和n8n工作流,踩的坑比过去三年做外包接的烂项目还多。一开始想得太简单,以为调个GPT-4 API,给个主题就能无限生成。结果呢?生成的东西要么车轱辘话来回说,要么逻辑硬伤,最要命的是没有“人味儿”,一看就是AI写的。SEO爬虫不认,平台算法也给你限流。这不行,我得让AI学会“装人”。

所以现在的系统是个三层Agent架构。最底层是“采集工”,不是简单爬虫,是能模拟真人阅读行为的Selenium套壳。它得能识别出目标网站的文章主体、排除广告和侧边栏,甚至能理解“评论区高赞观点”这种非结构化数据。这里卡了我两周,DOM树结构稍微一变就崩,最后上了动态XPath和一点图像识别才稳住。

中间层是三个核心Agent,在CrewAI里跑。一个“分析员”,负责把采集来的文章拆成骨架:核心论点、数据支撑、情绪倾向、行文节奏。第二个“改写员”,它的提示词工程最复杂,我给它灌了几百篇我2016-2018年写的那些野路子SEO文章当样本,要求它必须保留原意的逻辑链,但替换所有可替换的词汇、调整句式、甚至插入我常用的那种带点吐槽的口语化短句。这里的关键是控制“变异度”,太高了跑偏,太低了就是抄袭。第三个“质检员”,它用一套我自定义的规则库(比如检查关键词密度、排查违禁词、评估可读性分数)和一个小型本地微调过的GPT模型,来判断文章是否过关。不过关就打回去重写,或者标记为“需要人工干预”。

最上层是“分发主管”,这是个n8n构建的自动化工作流。它接收质检合格的文章,然后根据不同平台的调性做最后微调:公众号加个煽动性开头和二维码,知乎改成“谢邀,刚下飞机”体,头条则突出争议点和关键词。接着自动调用各平台的API(或模拟操作)发布,发布后还能监测初始数据,如果互动太差,会触发警报通知我。

这套东西跑起来之后,我最大的感受不是“省时间”,而是“扩空间”。我一个人一天最多写两三篇深度文,但现在我的“数字分身”可以在同一时间出现在五六个不同领域的话题里,用不同的口吻说话。一个在讨论AI编程,另一个在吐槽健身房商业模式,还有一个在分享低卡食谱。它们互相之间没有关联,但在各自的信息茧房里,都慢慢积累起信任感。咨询来了,我就用同一个大脑去接,反而显得我知识面极广。

当然有毛刺。平台风控升级,某个账号突然被封;Agent偶尔写出匪夷所思的句子;n8n工作流因为网络波动卡住。但这些都是技术问题,好解决。真正让我后怕的是那种“失控感”——当我看着那些以我的口吻、却非我亲笔的文字,获得真实的互动和认可时,我到底是谁?是Flovico,还是运营Flovico这个IP的另一个高级Agent?

不想了。至少这个月,靠这个系统来的潜在客户,够我忙活了。先解决生存,再思考哲学。

© 版权声明
THE END
喜欢就支持一下吧
点赞34 分享