切换为使用验证码登录
近年来,大型语言模型(下称LLMs)的能力不断提高,引发了各界关于它们是否只是学习了表面的统计规律,还是形成了包含数据生成过程的内在模型(即世界模型)的争论。近日,来自麻省理工(下称MIT)的研究人员公布了他们的研究,就此给出了答案。
MIT研究人员Wes Gurnee和Max Tegmark于10月3日提交在预印本arXiv上的论文称,他们通过分析三个空间数据集(世界、美国、纽约市的地点)和三个时间数据集(历史人物、艺术作品、新闻标题)在Llama-2系列模型中的学习表征,发现了世界模型的证据。
研究人员发现,LLMs学习了空间和时间的线性表征,并且这些表征在不同的尺度和实体类型(如城市和地标)之间是统一的。此外,作者还识别出了单个的“空间神经元”和“时间神经元”,它们可靠地编码了空间和时间坐标。论文称,现代LLMs获取了关于空间和时间这些基本维度的结构化知识,证明LLMs学习的不仅仅是表面统计规律,而是真正的世界模型。
但以小编个人之见,LLMs恐怕不能实现世界模型的愿景。早在几年前,有研究人员就指出:现行的人工智能仅处于初级阶段,并没有跳脱出已经设定的算法和数据库,因此不具备思考和自主学习的能力。因而,ChatGPT 之类的 LLMs 只是学舌的鹦鹉,认为单纯依靠对大量文本的死记硬背、随机拼凑,是不可能产生对世界真正的理解的,一个简单的佐证在于,大语言模型很容易给出一些违背常识的、甚至在几岁的小朋友来看来都可笑的幻觉回答。无法跳脱已设定的框架意味着大型语言模型的精准度只在于研究人员设定程序的精准程度和数据库的多少,并不存在自主学习更正的意识的。这也是世界模型最为关键的因素。
世界模型需要感知世界,如果能够构建起一个「世界模型」,最重要的两个因素是:通过观察世界,从真实世界感知信息;通过观察,预测未来可能得状态。甚至再进一步,通过执行和观察结果,继续调整自身模型。显然,目前的大型语言模型并不具备这样的能力。