既然回到了书房,我就把那套“自动化复盘”系统重写了

既然回到了书房,我就把那套“自动化复盘”系统重写了。上次动它还是2020年,团队扩张最猛的时候,那会儿代码写得跟屎一样,为了应付甲方,全是硬编码和定时器暴力轮询,现在看着都脸红。

窗边那几块草坪彻底黄了,物业也不浇水。盯着看了十分钟,心里那股因为流量焦虑拧起来的劲儿,好像跟着草一起蔫下去了。2021年断尾求生,砍掉团队回归一个人,最大的收获不是时间自由,是终于敢承认以前追求的很多东西是错的。比如流量。2018年我为了一个关键词上首页,能熬三个通宵去扒竞品的外链结构,用Python多线程模拟点击,就为了骗过那个操蛋的算法。结果呢?百度算法一更新,所有努力归零。那种追逐瞬时爆发的快感,跟吸毒没区别,高潮过后是更深的虚无和技能恐慌。

所以这次重写,目标变了。我不再做一个“监控XX平台爆款并自动跟风”的垃圾脚本。那玩意儿除了制造信息焦虑屁用没有。我要的是一个能陪我至少五年的“长青工具”。核心就一件事:把我每天散落在各个地方的数据——微信聊天记录里的客户需求片段、飞书文档里的项目节点、甚至Keep里的训练数据——自动抓取、清洗、按我自定义的维度生成每日/每周复盘报告。它不追求“快”,它追求“准”和“沉淀”。

技术栈全换了。以前用Requests+BeautifulSoup硬怼,遇到反爬就头痛医头脚痛医脚。现在用Playwright模拟真实浏览器环境,虽然重,但稳定,对付那些动态加载的SPA页面和讨厌的Cloudflare验证码省心太多。数据清洗这块,以前用正则表达式写到吐,现在直接上LangChain搞了个小模型,专门训练它识别我那些口语化的笔记,比如“客户A说大概可能要改,但又不急”这种,能自动归类到“待定-低优先级”池子里。存储也从MySQL换成了Supabase,就图它那个实时订阅和边缘函数,我手机电脑之间同步状态几乎无感。

最难的是定义“复盘维度”。这纯粹是产品经理的活,写代码反而简单。我列了十几个指标:情绪能量值(通过记录里的关键词加权)、决策延迟时间(从记录需求到给出方案的时间差)、高价值对话占比……有些维度我现在也不知道有没有用,但先记下来。工具的长青性就在于它允许我未来随时调整这些维度,而不用重写抓取和清洗的逻辑。这系统就像我给自己造的一个外挂大脑皮层,专门负责把短期记忆整理归档成长期经验。

搞到一半,出去抽了根烟。夜色是挺深,但没什么“万千思绪”。脑子里就一个念头:以前总想抓住窗外飞过去的风,现在只想把脚下的土夯实。风来了我能站得稳,风不来我也能自己长点东西。草坪黄了就黄了吧,根还在,秋天浇透水,明年还能绿。工具也一样,耐得住迭代,才扛得过时间。

© 版权声明
THE END
喜欢就支持一下吧
点赞61 分享