小剑

大语言模型理解吗

最近在微博上看到一篇讨论,引发了我的一些思考。争论的核心在于:大模型是否真正“理解”了知识?还是它只是单纯地根据概率预测下一个token?

假设一个模型在撰写一篇悲情小说。读者常常会问:它真的能感受到角色的处境和悲伤吗?它是否能把握到那种细腻的情绪,理解悲伤背后的原因?
这个问题的关键点在于,我们所说的“理解”究竟意味着什么。是像人一样去体验和共情,还是能够在形式上、逻辑上完整表达那种情绪?

这让我联想起曾经读过的一篇科幻短篇小说。故事里,人类遇见了科技水平远超自己的外星文明,并向他们学习了许多前所未见的科学知识。然而在人类好奇地追问“我”的问题时,却发现这些外星人完全无法回答——他们根本没有“我”的概念。对他们而言,个体化的“我”是多余的,是人类大脑的一种虚构。
这让我第一次产生了一种陌生的视角:或许“我”并不是宇宙中必然存在的概念。

在冥想相关的资料中,也有类似的说法。神经科学告诉我们,大脑并不存在一个统一的“我”。我们的行为是由大脑不同模块共同驱动的,所谓“我”的决策,往往是行为之后大脑的一种解释。换句话说,“我”只是大脑为方便理解世界而虚构出来的叙事。

于是,我突然意识到:模型是否“真实”理解角色的情感,其实未必重要。它完全可能在未来更复杂、更完善的时候,像人类一样虚构出一个“我”的叙事;或者像那个外星人一样,摒弃“我”的概念,以一种完全不同的方式去探索和描述世界。
理解的存在形式可能远比我们想象的多样。我们今天在讨论“模型是否理解”,或许就像古人讨论“机器是否会走路”一样狭窄。真正重要的,也许是它能否为人类打开新的视角和可能性。