既然回到了书房,我就把那套“自动化复盘”系统写完了

既然回到了书房,我就把那套“自动化复盘”系统写完了。凌晨两点,屏幕上最后一行日志跑完,数据流从 Notion 的数据库里安静地淌出来,自动生成了本周的复盘报告。没有欢呼,没有掌声,只有书房里服务器风扇的低鸣,和我自己因为久坐而僵硬的颈椎在抗议。但这次不一样,这次是为我自己写的,代码里每一行 if-else 都透着一种久违的、纯粹的掌控感。

前两年带团队的时候,复盘是场噩梦。每周五下午,我得把七八个人从各自的工位、项目、借口里拽出来,围在会议室。有人迟到,有人心不在焉刷手机,有人汇报起来车轱辘话来回说。我像个催债的包工头,逼着他们填 Google 表单,然后自己再花两三个小时,把那些零散、敷衍、甚至前后矛盾的数据手动整理成 PPT。效率?不存在的。那感觉就像用漏勺去舀一缸浑水,累个半死,手里还是空的。最后 PPT 发给客户,换来的可能只是一句“已阅”,或者更糟,一堆新的、毫无逻辑的修改意见。那种疲惫是掏空式的,你消耗的不是时间,是心气。

所以当我决定砍掉团队,重新一个人坐回这张书桌前,第一个念头就是:绝不能再把生命浪费在这种低效的重复劳动上。身体是唯一的行李,这话现在才真正咂摸出味儿来。管理团队那两年,焦虑和应酬把身体搞垮了,体检单上一堆箭头。现在,逻辑是另一件行李。我得用代码,给自己打造一套不会抱怨、不会摸鱼、绝对忠诚的“数字员工”。

这套系统的核心很简单,就是把我散落在各处的数字痕迹自动抓取、清洗、聚合。我用 Python 的 selenium 去爬取微信读书的每周阅读时长和笔记,用 requests 库调 Toggl Track 的 API 拉取时间块记录,再用 pandas 把 Jira 上自动导出的任务状态 CSV 做关联分析。难点不在技术,而在“对齐”。各个平台的数据结构天差地别,微信读书的 DOM 树隔三差五就变,Toggl 的 API 有频率限制,Jira 的字段名又臭又长。我得写一堆异常处理和重试机制,让这套系统能在无人值守的情况下,安静地、持续地跑下去。

最让我舒服的是 Notion 数据库那块。我设计了一个看板,左边是“输入源”(读书、编码、沟通、健身),右边是“输出物”(文章、代码仓库、客户反馈、体测数据)。中间的过程,全由脚本自动填充。每周日晚上,它会准时给我生成一封邮件,里面没有废话,只有几个关键图表:本周深度工作流时长占比,不同类型任务的平均耗时,阅读量环比。还有一行加粗的结论,比如:“本周沟通类任务耗时上升 15%,但对应客户满意度指标未显著变化,建议检查沟通效率或任务必要性。”

这就够了。我不需要它告诉我“你很棒”,我需要它像个冷酷的教练,指着数据说“这里,有问题”。这种基于事实的复盘,才能带来真正的迭代。以前带人,你是在跟人性博弈,跟情绪周旋,累;现在,你是在跟逻辑和机器博弈,虽然也烧脑,但这种累是清澈的,睡一觉就能恢复。

写完保存,关掉编辑器。窗外还是黑的,但我知道,等天亮了,这套系统就会开始为我工作。而我,终于可以把省下来的这两三个小时,不是拿去开另一个无意义的会,而是换上跑鞋,去楼下公园实实在在地跑上五公里。身体和逻辑,这两件行李,现在才算真正攥在自己手里了。

© 版权声明
THE END
喜欢就支持一下吧
点赞61 分享