标签: 论证

0

大模型不是真理机器,而是论证机器

2026年3月28日,Andrej Karpathy在X上分享了一段亲身经历。他先自己起草了一篇博客,然后花了四个小时让大模型(LLM)反复打磨论点。结果文章变得无比流畅、说服力极强,他自己都觉得"太棒了"。紧接着,他突发奇想,让同一个模型去论证完全相反的立场。几分钟后,模型不仅把原论点拆得七零八落,还用同样优雅、严密的逻辑说服他:反方才是正确的。Karpathy最后感慨:大模型并不一定给出"真理",但它们极其擅长"论证任何方向"。这正是当下AI最迷人、也最危险的特质。 这条推文迅速引发热议,却也点出了一个被很多人忽视的核心事实:**大模型不是真理机器,而是论证机器。**它不是在追求客观事实的终极答案,而是在概率空间中生成最连贯、最有说服力的文本序列。只要你给它一个立场,它就能像顶尖辩手一样,调动海量训练数据中的修辞、逻辑、例证,把这个立场包装成"铁证如山"。这不是bug,而是它的设计本质——预测下一个token的优化目标,本质上就是"让下一句话听起来最合理、最自然"。