最近,我总忍不住对着屏幕上的文字犯嘀咕:“这玩意儿,不会是AI写的吧?”不是那种学术论文的板正,也不是新闻稿的套路,而是那种看似真诚、实则空洞,仿佛在跟你聊天,但又总缺点人味儿的文字。就像是,你跟一个精通语言模型的Siri聊天,它啥都能说,但你总觉得隔着一层冰冷的屏幕。
起初,这种怀疑还只存在于编辑部内部的玩笑。一篇稿子,短短两千字,蹦出三个“有人认为”,三个“有网友认为”,立场中立得像瑞士,观点平衡得像天秤座。我们开始私下嘀咕,哪个AI这么敬业,这么怕得罪人?但细想想,也可能是哪个刚入行的小朋友,战战兢兢地写稿子,生怕观点不够“客观全面”。这种“既要…又要…”的写作模式,与其说是AI的杰作,不如说是某种畸形KPI下的产物。
后来,这种怀疑开始蔓延。编辑部的邮箱里,收到一篇文笔华丽的投稿,第一反应不是“哇,又发现一颗新星”,而是“这玩意儿,不会是AI生成的吧?得好好查重!”读者在社交媒体上看到一篇“爆款”文章,字里行间充满了焦虑和煽动,评论区一片“真实!”,“我也是!”的声音,但总觉得哪里不对劲——这到底是真情实感,还是AI批量制造的“情感共鸣”?
就连点个外卖,看到那些堆砌辞藻、恨不得把食材夸上天的“走心”好评,都忍不住怀疑:“这玩意儿,不会是AI写的吧?预制菜再难吃,也得靠AI来挽尊?”以前觉得“好吃到哭”是夸张修辞,现在觉得,也许真的是AI在“哭”,因为它们尝不出味道。
当然,我承认这种怀疑有点“被害妄想症”的倾向。毕竟,我们无法精确统计AI语料的占比,也无法将它们从人类语料中彻底分离。它们就像混在一起的黄豆和绿豆,你永远也别想把它们一颗颗挑出来。而那种“Scaling Law”式的增长,更是让人绝望——AI的学习能力越来越强,模仿能力越来越高,我们分辨真伪的难度也越来越大。
与其说是AI的崛起,不如说是人类文字信任的崩塌。我们开始怀疑一切,质疑一切,活像一群得了“文字洁癖症”的偏执狂。但这种怀疑,真的毫无意义吗?当AI能够轻易地模仿我们的语言,我们的情感,我们的思考方式,我们又该如何定义“真实”?
面对这股来势汹汹的AI浪潮,我们这些文字工作者,总得找点精神寄托,安抚一下自己那颗被碾压得七零八碎的心。就像武侠小说里,徒弟打不过了搬师父,师父不行了请祖师爷,我们这些搞文学的,自然而然地想到了那些文学史上的大神。
于是,我们策划了一场“AI模仿作家”的单方面测试,看看这些硅基写手,能不能把那些文学宗师模仿得惟妙惟肖,以假乱真。参赛选手包括豆包、Kimi-k1.5、Deepseek-R1、文心一言4.0,以及GPT o3-mini。除了只会埋头苦写的豆包,其他选手都能展示自己的“思考过程”,让我们得以窥探AI模仿人类作家的底层逻辑。
首先登场的是文心一言,它的推理过程简洁明了:先分析鲁迅作品的特点,然后生成新内容。
但从生成结果来看,这位选手似乎更在意模仿鲁迅的“主题”,比如批判现实,比如关注社会,但完全忽略了鲁迅所处的时代背景,以及他独特的语言风格。结果就是,写出来的东西充满了“穿越感”,仿佛一个现代人在扮演鲁迅。
我只能说,这玩意儿要是放在中学升旗仪式上演讲,估计能把台下的学生都听睡着。
接下来是GPT o3-mini,这位“洋鲁迅”的思考方式,跟文心一言差不多,也是先总结出鲁迅作品的“批判现实主义”、“愤世嫉俗”、“风格简洁有力”等特点,然后信誓旦旦地表示,自己要“进行深刻的反思和尖锐的社会评论”。
但这位“洋鲁迅”的“深刻”,体现在它几乎每句话都要cue一下鲁迅的“三件套”——“麻木”、“讽刺”、“苦闷”。
感觉它不是在模仿鲁迅,而是在cosplay鲁迅,生怕别人不知道它在模仿谁。
相比之下,Kimi和DeepSeek的思考过程更加复杂,也更有针对性。Kimi甚至把鲁迅的风格拆解成了内容题材、语言风格、句式,甚至包括音韵。然后,它给自己定下了“时间”、“希望”、“社会”、“梦想”、“自由”等10个主题,要求自己分别就这些主题展开模仿。
但结果呢?这位选手好像患上了“比喻依赖症”,写出来的东西几乎都是一个句式:“XX如XX”。
这玩意儿要是发到我爸的朋友圈,估计能骗到一堆点赞,然后配上一句“青春不再”的感慨。
DeepSeek的思路跟Kimi类似,但它没有把重点放在主题上,而是直接落脚到“核心意象”,要求自己使用长衫、辫子、茶馆等元素,并注意语言的凝练和节奏感,增强批判的力度。
但理想很丰满,现实很骨感。在实践过程中,DeepSeek彻底放飞自我,暴露了它“极繁主义”的本质。
一段85个字的文本,DeepSeek用了18个名词,恨不得把所有能想到的意象都堆砌在一起,完全忘了自己之前信誓旦旦要“凝练”语言的承诺。只能说,这位AI鲁迅,还是露出了马脚。
总而言之,在已知AI生成文本的前提下,我们总能找出它们模仿作家的破绽。但如果把真假作家的文本混在一起,人类读者还能一眼分辨出碳基和硅基创作者的区别吗?
为了验证我的猜想,我特意邀请了我的老板Tim和我的同事园长担任测试嘉宾。Tim是沈从文的铁杆粉丝,园长则是张爱玲的忠实拥趸。
测试方法很简单:我让五位“AI牛马”分别模仿沈从文和张爱玲的风格,生成若干段新内容,并且强调“不要只是在原文基础上简单改写,而是要模仿XX的风格,生成新的内容”。与此同时,我也准备了一些沈从文和张爱玲的原文,为了避免影响测试结果,我特意避开了他们那些脍炙人口的名篇。
准备就绪后,我把AI生成的语料和真作家的语料打乱混合,变成一套测试题,分别交给Tim和园长。结果令人大跌眼镜:50段AI沈从文和50段AI张爱玲,没有一段能够蒙混过关,100%被两位测试者识别为AI生成。
Tim只用了五分钟就完成了测试。在复盘时,他详细解释了自己的判断标准:“首先,用到‘美好’这个词的,全部排除掉,沈从文那个年代的人,应该不用这个词。其次是意象堆叠,AI喜欢把各种意象堆砌在一起,但真正的作家会追求文字的简洁,不会做无用的堆砌。最后是意象的选择,好的作家会选择有创造性的意象,但AI就会选择一些陈词滥调。”
园长则补充了一点:“直觉。AI写的东西,水平很差,像一个刚学写小说的人写出来的。就算我不是张爱玲的粉丝,只看过一两篇她的作品,也能分辨出来。”
在两位碳基测试者完成测试后,我突发奇想:如果让AI自己来判断,它们能分辨出AI文本的文风吗?
于是,我把五位AI选手模仿鲁迅的片段,分别投喂给DeepSeek。
结果,DeepSeek把豆包版鲁迅认成了钱钟书,认为Kimi版鲁迅有鲁迅的影子,但又有点像王小波,把文心一言版鲁迅认成了郁达夫,认为GPT版鲁迅杂糅了鲁迅、余华和王小波的风格。
最搞笑的是,它把自己刚刚模仿鲁迅写出来的文本,认成了张爱玲+施蛰存+白先勇的混合体。
只能说,AI不仅无法模仿人类,甚至连自己都认不清。
如果你也想挑战一下自己的文学鉴赏能力,可以试试这套真假鲁迅测试题:点击这个链接。看看你能否火眼金睛,识别出谁是真正的鲁迅,谁是AI模仿的赝品。
尽管学术论文、小说、报告、新闻等领域的AI写作更容易引起广泛讨论,但说实话,这些需要专业知识和复杂逻辑的文本,对目前的AI来说,还是有点吃力。它们要么太长,需要很强的逻辑性,要么需要获取新信息,生产新知识,要么需要模仿成熟作家的独特风格。一不小心,就会露出马脚。
而且,大家对严肃内容的AI生成,都比较警惕,各种限制和惩罚措施也比较多。
相比之下,那些充斥着互联网的日常语料,才是AI文本的真正乐园。因为它们短小精悍,语境轻松,辨别成本高,用户辨别意愿低。
比如,社交平台上的那些短内容。
现在,各种批量生产的八卦新闻和家庭伦理故事,正在疯狂围攻各大社交平台。那些八卦新闻,偶尔还会因为事实性错误而暴露AI的身份。但那些涉及个人隐私的家庭伦理故事,就很难证伪了,只能引发无尽的猜测。
“儿媳怒斗恶婆婆”、“妻子智擒出轨渣男”,情节之离奇,细节之生动,一半用户看得热血沸腾,跟着剧情起伏,另一半用户则怀疑这只是为了“起号”而编造的剧本。甚至有人在评论区抓狂地质问:“你这是不是AI写的啊?纯想知道自己猜得对不对。”
再比如,新闻、短视频、图文内容的评论区。
微博有罗伯特,小红书有点点,这些AI内容助手,光明正大地活跃在评论区,大家都知道它们是AI,不存在混淆的问题。但还有很多AI生成的日常语料,顶着随机生成的头像和用户名,伪装成活人,混入评论区。
我的老板Tim最近就跟我抱怨,说他现在看新闻,总觉得评论区里多了很多“假人假话”。
“那些只有一句话的评论,比如‘詹姆斯今天打得真不错’,很难让人怀疑。但我发现,现在评论区里多了很多标点符号完备、句式结构完整的句子。正常人说话,不会这么一板一眼。我就点进那些用户的个人主页,发现他们一分钟内在好多条新闻下面发了评论,而且都是跟新闻有关的。人肯定没办法在一分钟内看完这么多篇新闻,再写出这么多评论,我就怀疑他们是机器人。”
一位互联网行业的朋友告诉我,其实“用AI伪装人类,跟用户互动”这种事情,在很多内容平台上都存在,甚至比ChatGPT出现得更早。“五六年前就有人这么干了,生成一堆用户头像和用户名,去低粉用户的评论区留言。只不过那时候AI生成的留言还不够个性化,只能用一些通用的,比如‘真棒’、‘今天真不错’,或者发一堆表情包。大模型出现后,理论上讲,AI能伪装得更像了。”
那么,谁会有动机生产AI评论,制造虚构的互动呢?
“可能是水军,市场上存在增加评论量的需求,他们用AI比用人高效多了。也可能是平台本身,为了促活跃,主要针对低粉用户的内容。能火的内容是很少的,金字塔底座上的那些内容,可能从头到尾都不会有一条留言。为了激励这些用户继续生产,继续活跃,有些平台就会上一些科技手段。”
细思恐极。
至此,这已经不仅仅是“AI幻觉”的问题了。当人类的日常语料被无限稀释,当我们刷着用AI刚编的婆媳关系帖,给新闻评论区的AI评论点赞,又收到一条AI留言提醒,也许人类才是一种幻觉。
我们总不能每次都搬出鲁迅、沈从文、张爱玲这样的名字,就像达摩祖师不可能从第一章打到最后一章。指望文学宗师来拯救我们的语言,未免太天真了。
编造不是AI带来的,对AI稀释人类语料的担忧,也不意味着一种反AI的立场。观察人类语料被AI稀释的过程,让我想起了鲍曼的《现代性与大屠杀》。
鲍曼在书中指出,现代性的某些特质,比如理性、效率、秩序,在特定条件下,可能会导致极端恶劣的后果。大屠杀并非偶然事件,而是现代性的内在逻辑的体现。
同样,AI的某些特质,比如高效、智能、自动化,在特定条件下,也可能导致人类语料的“大屠杀”。如果我们不加以修正,任由AI肆意生产和传播虚假信息,人类的语言和文化,将会被彻底稀释,甚至被彻底取代。
这并非危言耸听。当AI能够轻易地模仿我们的语言,我们的情感,我们的思考方式,当互联网上充斥着AI生成的虚假信息,当人们不再相信任何文字,我们又该如何构建信任,如何沟通交流,如何传承文化?
或许,我们应该重新审视AI的角色,重新定义“真实”的含义,重新思考人类与AI的关系。否则,AI时代的“大屠杀”,或许也将成为一种固有可能。