既然不想买高价显卡,我就在代码里优化每一个 Token。这话说出来,自己都觉得有点悲壮。双十一刚过,朋友圈里晒的不是订单,是各种“流量红利彻底消失”的焦虑文章。大盘数据确实难看,用户增长见顶,获客成本高得离谱,连我这种老油条都觉得,以前那些野路子,现在全堵死了。
但堵死有堵死的活法。大厂们卷存量,卷得头破血流,广告费烧得跟纸一样。我这种小节点,反而在细分市场里喘了口气。今年最大的转变,就是把所有能想到的重复性分发工作,全部用 AI 自动化管道串起来了。不是那种花架子,是真能省出时间、挤出利润的细节。
比如客户案例的包装。以前得手动截图、拼图、写文案、发知乎/小红书/公众号,一套下来半天没了。现在我用 n8n 搭了个工作流:本地一个 Markdown 文件更新,触发 GitHub Actions,自动调用 GPT-4 的 API,根据我预设的几种人格模板(比如“犀利吐槽风”、“冷静分析风”)生成三版不同平台的文案,再调用 DALL·E 生成配图提示词,最后通过各平台 API 或模拟操作发布出去。整个流程,我只需要维护那个最初的 Markdown 文件。省下来的时间,够我研究三个新的提示词技巧。
但问题就出在 API 调用上,尤其是 GPT-4。贵,是真贵。看着账单上那些因为提示词冗余、上下文过长而产生的费用,心都在滴血。这比当年做爬虫被反爬封 IP 还难受,那是技术对抗,这是纯纯的金钱消耗。所以“优化每一个 Token”成了生存本能。
我开始像十年前抠 SEO 关键词密度一样,去抠提示词。首先,系统指令必须极致精简,去掉所有“请”、“你好”、“我希望你”这类客气废话,直接以角色和规则开头。其次,把常用的上下文(比如我的产品背景、风格要求)做成向量数据库,用 embedding 查询来动态注入,而不是每次都全量喂给模型。最狠的是输出格式控制,我要求它必须用严格的 JSON 或者特定标记,这样下游解析几乎零错误,避免了因为格式混乱导致的重复调用。
有一次为了优化一个自动生成 SQL 查询的流程,我花了整整两天。原本的提示词有 200 多个 token,生成的 SQL 时对时错。我拆解发现,模型有时会“自作多情”地添加一些解释性注释。后来我把指令改成:“输入:自然语言描述。输出:仅且必须是一个标准的 PostgreSQL SELECT 语句,不要任何解释、不要注释、不要换行。” Token 数压到 50 以内,准确率飙升到 99%。就这点细节,把这个工作流的月度 API 成本砍掉了三分之一。
当大厂都在抢存量时,我这种“小节点”反而在细分市场更滋润。这话不是自我安慰。他们的体量决定了动作迟缓,船大难掉头。而我,靠这些抠到极致的 Token 优化、自动化管道,把交付效率提了上去,把边际成本压了下来。客户要的不是宏大叙事,就是一个能跑通、能省钱、能出活的具体方案。我现在卖的就是这个。
深夜盯着 n8n 的日志流,一个个节点绿灯亮起,自动运行,自动发布,自动通知。感觉有点像当年看着爬虫线程池稳定爬取数据。技术变了,从对抗平台规则变成了优化机器理解,但内核没变:用极致的工具理性,在夹缝里给自己刨出一块空间。显卡买不起,就买脑子。脑子不够,就用代码补。














