让脚本写出“成都味儿”,这事儿我折腾了快一个月。一开始我以为就是加几个“巴适”、“安逸”、“瓜娃子”当关键词,结果生成的东西像川普考试卷,生硬得抠脚。直到我把 o1 的推理链打开,才意识到问题不在词库,在逻辑。
方言是活的,是思维路径的本地化。你用普通话的逻辑想“这个东西很好吃”,输出就是“这个东西很好吃,巴适得板”,这是翻译,不是表达。成都话的底层逻辑是“评价前置+具象比喻+情绪收尾”。你得让模型先“想”成成都人。
我拆了五十段李伯清的散打评书录音转文字,不是当语料喂,是当逻辑样本分析。发现核心就三点:一是反问和设问特多,自己问自己答,“你说咋子安?哎,就是弄个的。”二是比喻极度生活化且带点蔫坏,“长得跟门板压过的一样”,“跑得跟脱缰的野狗一样”。三是节奏,短句堆叠,中间夹杂大量语气词“嘛”、“哦”、“嗦”,不是结束,是缓冲。
基于这个,我重构了 Prompt。第一层,角色锚定:“你现在是一个在成都生活了三十年、爱在茶馆摆龙门阵的中年大哥,职业是出租车司机,对本地吃喝玩乐门儿清。” 光这个没用,太虚。第二层,思维框架指令:“请用以下结构组织语言:1. 先用一个反问或自问自答切入主题。2. 描述时,必须使用一个基于常见生活场景(厨房、菜市场、麻将桌)的比喻。3. 在句中和句末,随机但合理地插入‘嘛’、‘哦’、‘得嘛’、‘撒’等语气词,使其起到停顿和强调作用,而非简单后缀。” 第三层,禁忌:“禁止直接使用‘巴适’、‘安逸’作为核心形容词,除非在比喻句之后作为自然补充。禁止使用‘辣椒’、‘火锅’作为万能答案。”
然后上 o1-preview,关键一步是开启深度推理。我在系统指令里明确写了:“请分步骤推理:第一步,解析用户请求的普通话核心信息。第二步,将核心信息映射到成都本地生活的常见场景中。第三步,用前述的方言逻辑框架重构语言。第四步,输出最终回答。” 看着它那“思考中”的提示跳上几十秒,出来的东西就不一样了。
比如我让它写“推荐一家夜宵面馆”。以前 gpt-4 的输出是:“成都的夜宵面馆很多,推荐某某面馆,味道巴适,尤其是他们的杂酱面。” 现在 o1 推理版出来的是:“哎,你问夜宵嗦?这个点儿嘛,就得去巷子头找。我给你说一家,老板儿脾气有点怪,但那个面哦,臊子炒得跟外婆家灶头炒出来的一样,油亮亮的,拌转,每一根都裹得匀匀净净。吃完嘴巴一抹,心头就两个字:踏实。不是那种辣得惊叫唤的,是香得你睡戳了都还在咂嘴巴。去嘛,就报王师傅说的,看能不能少等你两分钟。” 这个“睡戳了都还在咂嘴巴”和“报王师傅说的”,就是逻辑本地化的结果,它推理出了“推荐需要人情背书”和“好吃到有延续性”这两个隐藏点。
但这还不够稳定。o1 推理消耗大,速度慢,不适合直接上生产流。我的解决方案是,用 o1 生成几百条高质量、结构清晰的“范式回答”,覆盖常见话题。把这些回答作为“思维示范”样本,和之前的逻辑描述 Prompt 一起,构成一个强化包,去微调或者深度引导 gpt-4o 这类更快更省的模型。相当于让 o1 当老师,提炼出“成都味儿”的生成公式,再让速度型学生去模仿执行。
现在我在 n8n 里搭的本地生活推荐自动化,出来的文案终于不像全国统一模板了。代价就是 token 烧得我心痛,而且极度依赖那套初始 Prompt 的精准度。差一个字,可能就从“茶馆老哥”变成“景区导游”了。搞 AI 落地,有时候就是在这种抠细节的地方较劲,哪有什么魔法,都是体力活。














