Google 开放 1M tokens 超长上下文那天,我第一反应不是兴奋,是后背发凉。这玩意儿根本不是让你聊天用的,这是要直接吞掉整个文档库。我立刻把 2016 年到现在的所有博客草稿、项目笔记、客户需求文档,总共 47 个 Markdown 文件,大约 30 万字,一股脑全扔进了 Gemini API。提示词就一句:“以 Flovico 的十年产品经理视角,找出所有技术决策背后的共同逻辑链条,用时间线串联,指出我重复踩坑的模式。”
结果出来的东西,比我自己的记忆还锋利。
它先抓出了 2017 年我写微信小程序 SEO 野路子的那篇,里面我得意洋洋地讲怎么用 wx.navigateTo 做伪静态路由骗爬虫。然后,它直接关联到 2020 年我抱怨团队交付的那个文档,里面有一段被我快遗忘的吐槽:“新来的小孩又用前端路由搞复杂交互,客户手机卡成 PPT,最后还得我重写成原生组件。历史就是个轮回,只是我从钻漏洞的人,变成了填坑的人。” AI 把这两段放在一起,加了一句批注:“2017 年利用规则漏洞获取流量红利,2020 年因团队滥用类似技术导致交付质量崩溃。技术选择未变,但角色和约束条件反转,导致结果对立。这是你从‘执行者逻辑’转向‘责任者逻辑’的第一次失败尝试。”
我看到这句批注,愣了半天。我自己从来没这么清晰地想过这个问题。当年只觉得是队友菜,是管理难,现在被 AI 用超长上下文一串联,赤裸裸就是一个模式:我总在追逐“技术捷径”,但每次捷径都会在规模放大后,以更昂贵的代价反噬回来。2018 年用多线程爬虫疯狂抓数据,结果遇到频率限制和封 IP,通宵写代理池和验证码识别,最后项目黄了,只留下一堆脏数据。2023 年初学 ChatGPT API,也是拼命想着怎么用最少的提示词、最 hack 的方式让它干活,结果出来的东西不稳定,被客户投诉。直到后来老老实实研究思维链和 prompt 工程,才稳定下来。
超长上下文最可怕的地方,是它不给你“断章取义”的机会。以前我复盘,总是挑最近的一两件事,很容易归结为“这次运气不好”或者“那人不行”。但现在,AI 把十年的文本平铺开来,像法医做尸检一样进行交叉比对。它发现我在“焦虑驱动学习”上有着惊人的重复率:每次技能恐慌(2016 年的 SEO,2021 年的低代码,2023 年的大模型),我的学习路径文档里都大量出现“速成”、“捷径”、“一周搞定”这些词,而对应的项目总结里,则紧随其后出现“基础不牢”、“重构”、“技术债”这些词。AI 甚至统计了词频,画出了一条波动的曲线,我的“投机指数”和“项目返工率”几乎成正相关。
这让我想起现在搞的 n8n 自动化流封装。我是不是又在找新捷径?把一堆 AI 工具用自动化粘起来,封装成黑箱 GUI 软件卖给中小企业,这跟我当年把爬虫脚本包装成“数据宝盒”卖给运营,本质上有区别吗?可能唯一的区别是,这次我至少让 AI 提前帮我做了十年复盘,看到了那个该死的循环。我让 AI 基于全部文档,生成一个“Flovico 决策风险检查清单”,第一条就是:“当前想采用的技术方案,是否主要因为它‘快’和‘取巧’?如果是,请调取历史案例 3、7、15、22 进行关联阅读。”
技术从来不是问题,模式才是。Google 开放这个,表面是给开发者发福利,深层是让所有人把自己的历史喂给 AI,让 AI 帮你找出那些你自己都不愿承认的、深埋在时间线里的致命习惯。这比任何心理咨询都狠,因为证据全是你自己一字一句写下来的,铁证如山。
我现在有点明白“数字生命”备份是什么感觉了。一个拥有你全部记忆和文本的 AI,比你更了解你的过去,甚至能预测你的行为模式。我让它串联“十年往事”,本意是想做个炫酷的年度总结,没想到它给我做了个“人格缺陷”的技术审计。行吧,至少 2025 年的我,有勇气让 AI 把这一切都摊开来说了。下一步,可能就是让这个“数字我”,实时监控我现在的决策,在我又想抄近道的时候,弹出一个窗口,里面是 2018 年那个因为 IP 被封而崩溃的凌晨三点,和我自己写的日志:“再也不搞这种刀口舔血的玩意儿了。” 但愿这次,我能听得进去。














