在与熟人谈话时,你的大脑可能会超前一步,预测对方将要说的话。也许那时你会脱口而出你脑海中浮现的任何想法。或者,也许你会默默地揣摩你的猜测,等待看看——在成千上万种可能性中——你的谈话伙伴是否会说出你一直在思考的同一个词。令人惊讶的是,你的同伴通常会这样做。
大脑是如何做到这一点的?弄清楚我们如何处理语言长期以来一直是神经科学家的关注焦点。麻省理工学院的研究人员使用一种名为整合建模的技术,为这个问题带来了新的视角。他们将数十种机器学习算法(称为神经网络)与脑部扫描和其他数据显示一个人在阅读或聆听语言时神经回路如何运作的数据进行了比较。研究人员有一个由两部分组成的目标:他们想弄清楚大脑如何处理语言,并通过这样做来突破机器学习算法可以教给我们关于大脑知识的界限。
建模技术揭示,下一个词的预测可能起着关键作用,这对于诸如在你撰写短信和电子邮件时建议单词的算法至关重要。研究人员发现,擅长预测下一个词的模型也最擅长预测大脑活动模式和阅读时间。因此,这些模型似乎不仅对在你输入“do you”后提出单词“want”有用,或者让计算机在幕后完成任意数量的任务有用。它们还可以为了解你的大脑如何理解从你朋友口中涌出的大量词语提供一个窗口。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。
研究人员认为,这项研究标志着机器学习算法首次与大脑数据相匹配,以解释高级认知任务的运作方式。(神经网络已在视觉和听觉研究中使用了多年。)该发现表明,预测处理是我们理解语言方式的核心,并证明了人工神经网络如何为认知提供关键见解。
“我没想到这会在我的有生之年发生,”麻省理工学院的认知神经科学家、该论文的共同资深作者伊芙琳娜·费多连科说。“相对于人类神经数据,这些模型的表现比我预测的要好得多。这只是打开了各种各样的大门。”
研究人员检查了基于 43 个人工神经网络的模型——这项技术由数千或数百万个相互连接的节点组成,类似于大脑中的神经元。每个节点处理数据并将其馈送到其他节点。麻省理工学院团队研究的一些模型针对下一个词的预测进行了优化,包括著名的生成式预训练Transformer(GPT-2),它因其创建类似人类文本的能力而引人注目。
研究人员发现,神经网络节点的活动与人类阅读文本或听故事时的大脑活动相似。他们还将神经网络的性能转化为对大脑表现的预测——例如大脑阅读某个词所需的时间。
这项工作为研究更高级别的大脑任务奠定了基础。“我们认为这是一种模板或指南,说明如何采用这种将模型与数据关联的完整方法,”麻省理工学院脑与认知科学博士生、该论文的第一作者马丁·施里普夫说。
研究人员发现,最擅长猜测下一个词的模型也最擅长预测人脑对相同任务的反应。对于处理单个句子和短段落尤其如此。当涉及到较长的文本块时,这些模型在预测单词或人类反应方面明显较差。没有任何其他任务反映大脑中发生的事情。作者认为,这有力地证明了下一个词的预测或类似的东西在理解语言中起着关键作用。“它告诉你,基本上,类似于优化预测表示的东西可能是生物系统和这些计算机模型共同的目标,”费多连科说。
斯坦福大学的计算神经科学家丹·亚明斯(未参与这项研究)对此评论说:“工程学和真实的生物进化之间发生了一种趋同进化。” 计算机科学独立提出了一种针对复杂认知任务的解决方案,而大脑已经在数千年中设计出了这种解决方案。
“我对[麻省理工学院团队]取得的成就印象深刻,”斯坦福大学的心理学家诺亚·古德曼(也未参与这项研究)说。但他补充说,他怀疑这些数据不足以解释人们如何从语言中获得意义。尽管有这些保留意见,古德曼表示,这种方法“仍然比我们过去拥有的任何方法都好得多”。
虽然神经网络和计算科学总体上只是大脑的粗略类比,但它们在我们理解自身思想方面的作用可能是巨大的。费多连科及其同事使用的整合建模表明,神经网络和计算科学实际上可能是提供关于大脑如何处理各种信息的伟大奥秘的见解的关键工具。