既然 AI 能写代码,我就让它写出“成都味儿”的文案

既然 AI 能写代码,我就让它写出“成都味儿”的文案。今天下午,我让 GPT-3 给一个成都本地生活小程序生成推广文案,结果它给我吐出来一堆“巴适得板”、“安逸惨了”的塑料方言,看得我脑壳痛。这玩意儿离真正理解一个地方的烟火气,还差得远。但它写 Python 脚本监控 Product Hunt 和 GitHub 趋势,倒是又快又准。

我那个监控脚本的逻辑其实不复杂,但全是细节坑。Product Hunt 的页面结构还算规矩,用 requests 加 BeautifulSoup 就能扒下来每日榜单,关键是要解析出 upvote 数、评论区和 maker 信息,这里面的 DOM 树嵌套有点绕。GitHub Trending 更麻烦,它没有公开 API,得模拟浏览器行为去抓,而且它那个“语言”和“时间范围”的筛选参数是动态加载的,我一开始用简单的 get 请求死活拿不到数据,后来上了 Selenium 才搞定。最要命的是频率限制,两边网站都不能爬得太狠,不然 IP 分分钟被 ban。我设了随机延时,还用了代理池轮换,这才算稳定跑起来。

跑了一周的数据,趋势就很明显了。Product Hunt 上,跟 Web3 沾边的东西——不管是钱包、NFT 工具还是 DAO 治理平台——热度蹿得飞快,评论区的讨论也异常活跃,虽然很多项目我看不懂到底解决了啥真实问题,但那种“FOMO”情绪隔着屏幕都能闻到。GitHub 上则是低代码/无代码工具的天下,各种可视化搭建前端、用 YAML 描述后端逻辑的开源项目 star 数猛增。这俩趋势放一起看特别有意思:一边是极客们在追求极度去中心化、技术栈复杂到天上的新世界;另一边是大众在拼命寻找把复杂技术封装成拖拉拽的捷径。这世界好像正在裂开。

我坐在这个不到十平米的书房里,看着这些数据流进来。窗外是成都四月那种灰蒙蒙的天,但 API 和爬虫给我打开的是另一个世界。我不需要去旧金山或者柏林,就能实时感受到全球开发者肾上腺素的波动。这种“连接感”在2020年之前我没那么在意,那时候总觉得要肉身在场才行。现在?现在我觉得,代码和网络才是真正的任意门。

但话说回来,AI 能帮我抓趋势、写基础代码,可它写不出真正打动人心的“成都味儿”。那种味儿是茶馆里飘出来的茉莉花茶香,是深夜巷子口的烧烤油烟,是嬢嬢们摆龙门阵时的特定语调。这些,需要血肉之躯在这个城市里浸泡过才能感知。GPT-3 再厉害,它也没在人民公园晒过太阳掏过耳朵。所以,我现在的策略很清晰:让 AI 去处理那些重复、标准化、跨地域的信息获取和初步处理工作,解放出来的时间和精力,用来深耕只有“人”才能做好的事——比如理解一方水土,比如构建真正有温度的连接。工具归工具,人归人。

脚本还在后台安静地跑着,每隔一小时给我邮箱发一次摘要。它不知道什么是“巴适”,也不知道什么是“焦虑”,它只是忠实地记录着世界的脉搏。而我,需要从这些冰冷的数字里,读出热乎的机会和属于人的那份独特价值。这条路,看来还得自己一步步踩。

© 版权声明
THE END
喜欢就支持一下吧
点赞50 分享