39岁,我学会了在深夜的冷咖啡里读懂商业

这杯冷咖啡不是用来喝的,是用来算账的。凌晨两点半,我看着屏幕上的 Python 脚本又卡住了,这次是调用 OpenAI API 的频率限制。我设定的自动伪原创流程,卡在“方言词库替换”这一步。我手头攒了三十几个地方方言的语料库,从东北话的“整”到粤语的“咁”,本来想用 GPT-3.5 做内容骨架,再用方言词随机替换关键词,批量生产一批带“人味儿”的营销软文。结果呢?GPT 生成的内容骨架本身就够“标准”了,方言词硬插进去,读起来像是一个精神分裂的AI在模仿人类。

我39岁了,还在干这种“野路子”的活儿。十年前我写爬虫抓数据,用正则表达式和XPath解析DOM树,觉得自己是个技术黑客。现在呢?我像个给AI打补丁的泥瓦匠。我引以为傲的那套“内容矩阵”打法,在GPT面前像个笑话。以前我教团队写SEO文章,要研究关键词密度、LSI关键词、长尾词布局,一篇两千字的文章,两个人要磨一下午。现在,GPT-3.5 三分钟给你生成十篇结构工整、语法无误的废话。我的技能贬值速度,比人民币跌得还快。

但问题就出在“无误”上。太标准了,标准得让人一眼就看出是AI写的。没有错别字,没有口语化的跳跃,没有那些只有人类才会犯的、带着情绪的小错误。我想给这些内容加点“脏东西”,加点辨识度。所以我打起了方言的主意。理论上,把“非常重要”随机替换成“老重要了”(东北)、“鬼死咁重要”(粤语)、“忒重要了”(陕西方言),应该能制造出一种“接地气”的幻觉。

我写了个n8n的工作流。第一步,GPT根据核心关键词生成五篇内容草稿。第二步,用Jieba分词,把名词、形容词、副词这些“可替换词”抓出来。第三步,去我本地的SQLite方言词库里做匹配和随机替换。第四步,二次润色,确保语句通顺。逻辑很完美,跑起来全是坑。

首先是词性对齐。GPT生成的“推进项目”,在我的词库里,“推进”可能对应方言里的“搞起”、“整起”、“操办起来”。但“搞起项目”听起来就不对劲,方言词和现代商业词汇的搭配有强烈的违和感。其次是语境丢失。“这个方案很扎实”,在陕西话里“扎实”是褒义词,但在某些语境下替换成“瓷实”,味道就全变了。最要命的是,随机替换破坏了GPT原本流畅的逻辑链,一段讲商业逻辑的文字,中间突然冒出一句“咱得把这事儿整明白了”,后面的论述接不上,整段话就散了架。

我喝了一口冷咖啡,那股苦涩从舌头根直冲脑门。这不就是我这几年状态的隐喻吗?2019年那会儿带团队,我就想给标准化的业务流程里加“人味儿”,搞团建、讲情怀,结果管理得四不像,效率没上去,人心也散了。现在对AI,我又在犯同样的错误:试图用技术手段(方言词库)去解决一个非技术问题(内容的灵魂和辨识度)。AI产出的内容是“死”的,因为它没有经历,没有那种为了一个需求熬夜改方案、和客户扯皮、最后在凌晨灵光一现的“顿悟时刻”。我的方言词库,也只是另一层没有生命的“数据皮囊”。

真正的商业辨识度,从来不是靠词汇伪装出来的。是我在2016年为了一个爬虫反爬策略,死磕了三天三夜,最后用多线程+随机UA+代理池硬刚下来的那股狠劲。是我在2020年为了交付一个烂尾的小程序项目,自己填进去两万块钱的憋屈。是我现在,一个39岁的老产品,在AI核爆的废墟上,重新学习如何用Prompt和API来定义工作流。这些经历带来的语言,才是冷的咖啡、硬的茬。

我把那个n8n工作流暂停了。也许方向错了。让GPT去模仿“人类的口语错误”,不如让它极致化地发挥“非人类”的优势——比如,基于我过去十年的项目复盘数据库,让它总结出只有我这种掉过坑的人才能写出的“失败模式分析报告”。那里面自然会有我的语气,我的判断,我的“辨识度”。方言词库给不了我灵魂,但我自己的历史可以。

窗外的天色还是黑的。但咖啡已经彻底凉透了,凉得好,让我脑子清醒。商业不是热热闹闹的方言秀,是冷冰冰的算力、数据、和深夜里一个个不得不做的、清醒的抉择。

© 版权声明
THE END
喜欢就支持一下吧
点赞54 分享