没有人知道 ChatGPT 及其 人工智能表亲 将如何改变世界,其中一个原因是,没有人真正了解它们内部发生了什么。其中一些系统的能力远远超出了它们接受训练的范围——甚至它们的发明者也对原因感到困惑。越来越多的测试表明,这些人工智能系统发展出了真实世界的内部模型,很像我们自己的大脑,尽管机器的技术有所不同。
布朗大学的埃莉·帕夫利克说:“为了让它们变得更好、更安全或任何类似的东西,我们想要对它们做的一切,在我看来,如果我们不了解它们是如何工作的,要求我们自己去做似乎是一件荒谬的事情。”她是致力于填补这一解释空白的研究人员之一。
在一个层面上,她和她的同事们非常了解 GPT(“生成型预训练变换器”的缩写)和其他大型语言模型或 LLM。这些模型依赖于一种称为神经网络的机器学习系统。这种网络的结构松散地模仿了人脑中相互连接的神经元。这些程序的代码相对简单,只占几个屏幕。它建立了一个自动校正算法,该算法根据对数千兆字节互联网文本的费力统计分析,选择最有可能完成段落的词。额外的训练确保系统将以对话的形式呈现其结果。从这个意义上说,它所做的只是反刍它所学到的东西——用华盛顿大学语言学家艾米丽·本德的话来说,它是一个“随机鹦鹉”。(这并不是要贬低已故的非洲灰鹦鹉艾利克斯,它理解颜色、形状和“面包”等概念,并有意识地使用相应的词语。)但 LLM 也设法通过了律师资格考试,写了一首关于希格斯玻色子的十四行诗,并试图破坏用户婚姻。很少有人预料到,一种相当简单的自动校正算法会获得如此广泛的能力。
支持科学新闻报道
如果您喜欢这篇文章,请考虑支持我们屡获殊荣的新闻报道,方式是 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的有影响力的故事的未来。
GPT 和其他人工智能系统执行它们未受过训练的任务,赋予它们“涌现能力”,这甚至让那些通常对 LLM 的炒作持怀疑态度的研究人员感到惊讶。“我不知道他们是如何做到的,也不知道他们是否能像人类那样更普遍地做到这一点——但他们挑战了我的观点,”圣塔菲研究所的人工智能研究员梅兰妮·米切尔说。
蒙特利尔大学的人工智能研究员约书亚·本吉奥说:“它当然不仅仅是一只随机鹦鹉,它肯定构建了对世界的某种表征——尽管我不认为它完全像人类构建内部世界模型的方式。”
在 3 月份纽约大学的一次会议上,哥伦比亚大学的哲学家拉斐尔·米利埃提供了 LLM 可以做的另一个令人震惊的例子。这些模型已经展示了编写计算机代码的能力,这令人印象深刻,但并不太令人惊讶,因为互联网上有太多代码可以模仿。然而,米利埃更进一步,表明 GPT 也可以执行代码。这位哲学家输入了一个程序来计算斐波那契数列中的第 83 个数字。“这是非常高程度的多步骤推理,”他说。机器人成功了。然而,当米利埃直接询问第 83 个斐波那契数时,GPT 却答错了,这表明该系统不仅仅是在鹦鹉学舌地模仿互联网。相反,它是在执行自己的计算以得出正确答案。
尽管 LLM 在计算机上运行,但它本身并不是计算机。它缺乏基本计算要素,例如工作记忆。OpenAI 是一家科技公司,它的发明者默认 GPT 本身不应该能够运行代码,因此后来推出了一种专门的插件——ChatGPT 在回答查询时可以使用的一种工具——使其能够做到这一点。但米利埃的演示中没有使用该插件。相反,他假设机器通过利用其根据语境解释词语的机制来即兴创作记忆——这种情况类似于自然界如何将现有能力重新用于新功能。
这种即兴能力表明,LLM 发展出了一种超越肤浅统计分析的内在复杂性。研究人员发现,这些系统似乎真正理解了它们所学到的东西。在 5 月份在国际学习表征会议上展示的一项研究中,哈佛大学的博士生肯尼斯·李和他的 AI 研究员同事——麻省理工学院的阿斯彭·K·霍普金斯;东北大学的大卫·鲍;以及哈佛大学的费尔南达·维埃加斯、汉斯彼得·普菲斯特和马丁·沃滕贝格——创建了他们自己较小版本的 GPT 神经网络,以便他们可以研究其内部运作。他们通过以文本形式输入长串的移动序列,在数百万场奥赛罗棋比赛中对其进行了训练。他们的模型成为了一位近乎完美的玩家。
为了研究神经网络如何编码信息,他们采用了本吉奥和蒙特利尔大学的纪尧姆·阿兰在 2016 年设计的一种技术。他们创建了一个微型“探针”网络来逐层分析主网络。李将这种方法比作神经科学方法。“这类似于我们将电探针放入人脑,”他说。在 AI 的案例中,探针显示其“神经活动”与奥赛罗棋盘的表示相匹配,尽管形式复杂。为了证实这一点,研究人员反向运行探针,将信息植入网络——例如,将游戏的一个黑色标记棋子翻转为白色棋子。“基本上,我们侵入了这些语言模型的大脑,”李说。网络相应地调整了其移动。研究人员得出结论,它玩奥赛罗棋大致像人类一样:通过在其“脑海”中保留一个棋盘,并使用该模型来评估移动。李说,他认为该系统学习这项技能是因为它是对其训练数据最简约的描述。“如果你得到大量的游戏脚本,试图找出其背后的规则是压缩的最佳方式,”他补充道。
这种推断外部世界结构的能力不仅限于简单的游戏移动;它也出现在对话中。麻省理工学院的贝琳达·李(与肯尼斯·李无关)、麦克斯韦·奈和雅各布·安德烈亚斯研究了玩基于文本的冒险游戏的网络。他们输入了诸如“钥匙在宝箱里”之类的句子,然后是“你拿起钥匙”。使用探针,他们发现网络在自身内部编码了对应于“箱子”和“你”的变量,每个变量都具有拥有或不拥有钥匙的属性,并逐句更新这些变量。该系统没有独立的方式来了解什么是箱子或钥匙,但它提取了完成此任务所需的概念。“模型内部隐藏着某种状态的表示,”贝琳达·李说。
研究人员惊叹于 LLM 能够从文本中学到多少东西。例如,帕夫利克和她当时的博士生罗马·帕特尔发现,这些网络从互联网文本中吸收颜色描述,并构建颜色的内部表示。当他们看到“红色”这个词时,他们不仅将其视为一个抽象符号,而且将其视为一个与栗色、深红色、紫红色、铁锈色等具有特定关系的概念。证明这一点有些棘手。研究人员没有将探针插入网络,而是研究了网络对一系列文本提示的反应。为了检查它是否仅仅是在回 Echo 在线参考资料中的颜色关系,他们试图通过告诉系统红色实际上是绿色来误导系统——就像旧的哲学思想实验一样,一个人的红色是另一个人的绿色。系统没有鹦鹉学舌地回答错误答案,而是适当更改了其颜色评估,以保持正确的关系。
机器学习研究员、微软研究院的塞巴斯蒂安·布贝克接受了这样一个观点,即为了执行其自动校正功能,系统会寻找其训练数据的潜在逻辑,他认为,数据范围越广,系统将发现的规则就越通用。“也许我们看到了如此巨大的飞跃,是因为我们已经达到了数据的多样性,这种多样性足够大,以至于所有数据的唯一基本原则是智能生物产生了它们,”他说。“因此,解释所有数据的唯一方法是[模型]变得智能。”
除了提取语言的潜在含义外,LLM 还可以即时学习。在 AI 领域,“学习”一词通常保留给计算密集型过程,在该过程中,开发人员将神经网络暴露于千兆字节的数据中,并调整其内部连接。当您在 ChatGPT 中键入查询时,网络应该已经固定;与人类不同,它不应继续学习。因此,令人惊讶的是,LLM 实际上确实从用户的提示中学习——这种能力被称为上下文学习。“这是一种以前没有真正被理解存在的不同类型的学习,”AI 公司 SingularityNET 的创始人本·戈策尔说。
LLM 如何学习的一个例子来自人类与 ChatGPT 等聊天机器人的互动方式。您可以给系统提供您希望它如何响应的示例,它会服从。它的输出由它看到的最后几千个单词决定。给定这些单词,它所做的事情是由其固定的内部连接决定的——但单词序列仍然提供了一些适应性。整个网站都致力于“越狱”提示,这些提示克服了系统的“护栏”——阻止系统告诉用户如何制造管状炸弹等限制——通常通过指示模型假装是一个没有护栏的系统来实现。有些人将越狱用于不正当目的,但其他人则部署它来引出更具创造性的答案。“我会说,它会比你直接问它,而不使用特殊的越狱提示,更好地回答科学问题,”佛罗里达大西洋大学机器感知与认知机器人实验室的联合主任威廉·哈恩说。“它在学术方面做得更好。”
另一种上下文学习类型是通过“思维链”提示发生的,这意味着要求网络详细说明其推理的每个步骤——这种策略使其在需要多个步骤的逻辑或算术问题上做得更好。(但米利埃的例子如此令人惊讶的一件事是,网络在没有任何此类指导的情况下找到了斐波那契数。)
2022 年,谷歌研究院和苏黎世瑞士联邦理工学院的一个团队——约翰内斯·冯·奥斯瓦尔德、埃温德·尼克拉松、埃托雷·兰达佐、若昂·萨克拉门托、亚历山大·莫德文采夫、安德烈·日莫吉诺夫和马克斯·弗拉迪米罗夫——表明,上下文学习遵循与标准学习相同的基本计算程序,称为梯度下降。此程序未被编程;系统在没有帮助的情况下发现了它。“它需要是一项习得的技能,”谷歌研究院副总裁布莱斯·阿古埃拉·伊·阿卡斯说。事实上,他认为 LLM 可能还具有其他尚未被发现的潜在能力。“每次我们测试我们可以量化的新能力时,我们都会发现它,”他说。
尽管 LLM 有足够的盲点而无法被定义为通用人工智能或 AGI——动物大脑的智力——但这些涌现能力向一些研究人员表明,科技公司比乐观主义者猜测的更接近 AGI。“它们间接地证明,我们可能离 AGI 不远了,”戈策尔在 3 月份在佛罗里达大西洋大学举行的深度学习会议上说。OpenAI 的插件赋予了 ChatGPT 一种模块化架构,有点像人脑。“将 GPT-4 [为 ChatGPT 提供支持的最新版本的 LLM] 与各种插件相结合,可能是一条通往类似人类的功能专业化的道路,”麻省理工学院研究员安娜·伊万诺娃说。
然而,与此同时,研究人员担心,他们研究这些系统的窗口可能正在关闭。OpenAI 没有透露它如何设计和训练 GPT-4 的细节,部分原因是它与谷歌和其他公司——更不用说其他国家——处于竞争之中。“可能行业界会减少开放研究,而事情将更加孤立,并围绕构建产品进行组织,”麻省理工学院的理论物理学家丹·罗伯茨说,他将他的专业的技巧应用于理解 AI。
圣塔菲研究所的米切尔说,这种缺乏透明度不仅损害了研究人员。它还阻碍了人们努力了解采用 AI 技术的社会影响。“关于这些模型的透明度是确保安全的最重要的事情。”