2024年最后一个月,我几乎把所有的交付项目都推了,就干一件事:把过去两年零散学的大模型知识,用一张巨大的知识图谱串起来。这张图现在贴在我书桌对面的墙上,密密麻麻的连线,中心节点是“逻辑”。我预判,2025年所有关于AI的讨论,都会从“它能生成什么”转向“它如何思考”。
这不是空想。你看最近半年的技术发布,无论是OpenAI的o1系列,还是Claude 3.5 Sonnet的“思考时间”特性,甚至是国内一些厂商开始强调的“推理”和“规划”能力,信号已经足够清晰了。生成漂亮图片和流畅文本的门槛正在被踩到脚底,下一阶段的竞争焦点,是AI处理复杂、多步骤任务时的确定性和可靠性。这意味着什么?意味着我们这些靠“整合信息”、“设计流程”吃饭的产品经理,如果不懂AI底层的推理逻辑,很快就会沦为Prompt的搬运工,连给AI提需求都提不到点子上。
我补课的核心,是“智能体”(Agent)的工作流设计。不是那种玩具级的“帮我写个邮件”的Agent,而是能真正替代一个初级员工处理SOP(标准作业程序)的智能体。这玩意儿的关键,我总结下来就三点:任务分解、工具调用、以及最他妈重要的——状态管理。任务分解好理解,就是把“写一份季度市场分析报告”拆成“爬取竞品数据”、“整理内部销售数据”、“生成图表”、“撰写洞察”等子任务。工具调用也不难,现在LangChain、LlamaIndex这些框架已经把API封装得很好了。
真正卡住我的,是状态管理。一个智能体在执行一串任务时,它怎么记住上一步的结果?怎么判断某个子任务失败了,是该重试还是该换条路走?怎么在多个并行的任务线程之间同步信息?这根本不是写几句Prompt能解决的,这需要你清晰地定义出整个工作流的“状态机”。我花了整整一周,就死磕n8n里的“Switch”节点和“Wait”节点,模拟各种异常分支。比如,让智能体去调取一个第三方API获取数据,如果返回“频率限制”,是让它等30秒再试,还是立刻切换到备用数据源?这个决策逻辑,必须被我提前编码进去,AI自己目前还不会“灵机一动”。
这直接颠覆了我过去对“低代码”的认知。低代码不是让你不写代码,而是让你用更高抽象层级的“逻辑块”去写代码。以前用Axure画原型,思考的是页面跳转;现在用n8n或者LangGraph画AI工作流,思考的是信息流和决策树。底层逻辑从“用户视觉”切换到了“机器认知”。这个过程极其痛苦,相当于把我做了十年的交互设计肌肉记忆全部打碎重练。有好几个晚上,我看着屏幕上连成蜘蛛网一样的节点,脑子里一片空白,感觉过去十年积累的产品方法论,正在以肉眼可见的速度贬值。
但恐慌没用。我能做的就是疯狂地做实验。我用n8n搭了一个自动化的竞品监测智能体,让它每天去爬取指定对手的官网更新、社交媒体动态和应用商店评论,然后用Claude API做情感分析和趋势摘要,最后把报告通过企业微信机器人推给我。整个流程涉及7个服务、超过20个逻辑判断节点。第一次跑通的时候,那种成就感不亚于十年前我写出第一个能稳定运行的爬虫。但紧接着就是焦虑:这个流程里,有多少环节是明年就会被某个更强大的基础模型直接“端到端”替代掉的?我的价值,会不会从“搭建者”又滑向“调参者”?
所以我的知识图谱上,还有一个用红笔圈出来的巨大问号,写着“人机协作界面”。当AI的逻辑能力爆发后,人类和AI的交互方式一定会变。现在这种聊天框输入Prompt的模式太原始了。会不会出现一种新的“逻辑IDE”,像调试程序一样,可以单步执行AI的思考过程,可以设置断点,可以查看中间变量的值?如果真有那么一天,我现在补的课,就是为那个新界面准备的操作说明书。2025年,我不想只当一个看说明书的人,我想成为参与编写说明书的人。这个念头,支撑着我在这个年末,像个高考生一样疯狂地给自己补课。窗外是节日气氛,而我屋里只有服务器风扇的嗡嗡声,和一张越画越复杂的逻辑地图。














