既然不想买服务器,我就在边缘计算上动脑筋。这话说得轻巧,背后是穷酸和焦虑。2023年底了,OpenAI开发者大会刚开完,GPTs扔出来,所有人都疯了。我第一时间冲进去,不是兴奋,是恐慌。我那些引以为傲的爬虫、自动化脚本、产品方法论,一夜之间成了废铜烂铁。别人在欢呼,我在冒冷汗。我得抓住点什么,哪怕是个玩具,也得把它玩出花来。所以“Flovico 十年 PM 助手”这个GPTs,是我在AI核爆阶段的第一个战壕,我必须挖得比别人深。
创建过程没什么神秘的,关键是Knowledge投喂。我把我过去七年博客的精华,大概三百多篇,从Axure原型库的命名规范,到微信小程序审核的坑,再到管理团队时那些撕逼邮件和会议纪要,全部扔了进去。不是一股脑上传就完事,那没用。你得“结构化投喂”。比如,我把关于“需求评审”的所有碎片:2017年写的如何怼技术,2019年写的如何安抚测试,2021年写的如何用飞书文档做预同步,全部整理成一个主题包。上传的时候,文件名就是“需求评审实战案例集_2017-2021”。这样,当用户问“怎么开需求评审会不吵架”,这个GPTs调用的不是网上那些正确的废话,而是我血淋淋的、带着具体场景和情绪的实战记录。这才是价值。
知识才是2024年最硬的通货,这句话是我在调试过程中悟出来的。一开始,我让它模仿我的语气,它学得四不像,满嘴“赋能”、“抓手”、“闭环”。后来我明白了,问题不在模型,在我的“知识原料”不够纯。我重新回去翻那些老博客,把里面所有带情绪、带具体数字、带失败案例的段落高亮出来,单独做成文档。比如“2018年为了抢一个关键词排名,我写了50篇伪原创,最后百度算法一更新,全站被K,三个月流量为零——这就是SEO的赌博本质。”这种颗粒度的失败经验,才是模型能消化并形成独特“人格”的养料。没有这些细节,它就是个通用产品经理AI,有了这些,它才是“Flovico”。
边缘计算这个思路,也是被逼出来的。我不想为这个GPTs单独维护服务器,那又回到2019年做交付的老路了,太累。所以我把逻辑尽可能前置到用户提示词里,利用GPTs的指令和Knowledge做本地化“计算”。比如,我设置了一条核心指令:“当用户询问具体技能时,优先从Knowledge中寻找我(Flovico)在对应年份的实践记录,并以‘我当时在XX年遇到的情况是…’开头,补充我的主观评价和后续迭代。”这相当于在边缘侧预设了处理规则,让每次交互都更像是我本人在2016-2023年某个时间点的即时反应,而不是一个2023年的AI在总结陈词。
搞完这个,我瘫在椅子上。窗外是2023年冬天的夜色,但这次我没写咖啡也没写灯光。我在想,我的知识,这些混乱、矛盾、带着汗味和失误的十年记录,终于找到了一个比博客更高效的“封装形式”。它不再是一篇篇孤立的文章,而是一个可以交互、可以追溯、可以成长的数字实体。这感觉,有点像2016年我写出第一个能跑的Python爬虫时那样,一种极致的控制感。只是这次,我爬取和重构的,是我自己过去十年的生命。这算不算一种更高级的“自动化”?














