现在人工智能无处不在。当您撰写文档时,您可能会被询问是否需要“AI助手”。打开PDF文件,您可能会被询问是否希望AI为您提供摘要。但是,如果您使用过ChatGPT或类似程序,您可能熟悉一个问题——它会编造内容,导致人们对其所说的内容持怀疑态度。
将这些错误描述为“幻觉”已变得很常见。但是,以这种方式谈论ChatGPT具有误导性,并且可能造成损害。相反,称其为胡说八道。
我们说这话并非轻率。在哲学家中,“胡说八道”具有一种专门的含义,这种含义由已故美国哲学家哈里·法兰克福推广。法兰克福说,当有人胡说八道时,他们不是在说真话,但他们也不是真的在撒谎。胡说八道者的特点是他们根本不在乎他们说的是否真实。ChatGPT及其同类无法关心,因此在技术意义上,它们是胡说八道机器。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保未来能够继续讲述关于塑造我们当今世界的发现和思想的具有影响力的故事。
我们可以很容易地理解为什么这是真的以及为什么这很重要。例如,去年,一位律师在撰写法律摘要时使用ChatGPT进行研究时,发现自己陷入困境。不幸的是,ChatGPT包含了虚构的案例引用。它引用的案例根本不存在。
这并非罕见或异常。为了理解原因,值得思考一下这些程序是如何工作的。OpenAI的ChatGPT、谷歌的Gemini聊天机器人和Meta的Llama在结构上都以类似的方式工作。它们的核心是LLM——大型语言模型。这些模型都对语言进行预测。给定一些输入,ChatGPT将对接下来应该出现什么或什么是适当的响应做出一些预测。它通过分析大量的文本(其“训练数据”)来实现这一点。在ChatGPT的案例中,初始训练数据包括来自互联网的数十亿页文本。
LLM从这些训练数据中预测,从一些文本片段或提示中,接下来应该出现什么。它将得出一个最有可能出现的单词列表(技术上是语言标记),然后选择一个主要的候选词。允许它不每次都选择最有可能的单词,可以产生更具创意(和更像人类声音)的语言。设置允许多少偏差的参数称为“温度”。在此过程的后期,人类训练员通过判断输出是否构成明智的言语来改进预测。也可以对程序施加额外的限制,以避免问题(例如ChatGPT说种族歧视言论),但这种逐个标记的预测是所有这项技术的基础思想。
现在,我们可以从这个描述中看出,建模的任何方面都不能确保输出准确地描绘世界上的任何事物。没有太多理由认为输出与任何形式的内部表示有关。训练有素的聊天机器人将生成类似人类的文本,但该过程的任何部分都不会检查文本是否真实,这就是为什么我们非常怀疑LLM是否真的理解它所说的内容。
因此,有时ChatGPT会说谎。近年来,随着我们逐渐习惯人工智能,人们开始将这些谎言称为“AI幻觉”。虽然这种语言是隐喻性的,但我们认为这不是一个好的隐喻。
想想莎士比亚的范例幻觉,其中麦克白看到一把匕首飘向他。这里发生了什么?麦克白试图以正常方式使用他的感知能力,但出了问题。而且他的感知能力几乎总是可靠的——他通常不会随机看到匕首漂浮!通常,他的视觉在表示世界方面很有用,并且由于它与世界的联系,因此在这方面做得很好。
现在想想ChatGPT。每当它说话时,它只是试图产生类似人类的文本。目标仅仅是制作听起来不错的东西。这从来没有直接与世界联系起来。当它出错时,不是因为它这次没有成功地表示世界;它从未尝试表示世界!称其谎言为“幻觉”并没有抓住这个特征。
相反,我们建议,在Ethics and Information Technology杂志的6月报告中,更好的术语是“胡说八道”。如前所述,胡说八道者只是不在乎他们说的是否真实。
因此,如果我们确实将ChatGPT视为与我们进行对话——尽管即使这可能有点牵强——那么它似乎很符合要求。就其意图而言,它旨在产生令人信服的类人文本。它不是试图说关于世界的事情。它只是在胡说八道。而且至关重要的是,即使它说的是真话,它也是在胡说八道!
为什么这很重要?“幻觉”在这里不只是一个不错的隐喻吗?如果它不贴切,真的有关系吗?我们认为这很重要,至少有三个原因:
首先,我们使用的术语会影响公众对技术的理解,这本身就很重要。如果我们使用误导性的术语,人们更有可能误解技术的工作原理。我们认为这本身就是一件坏事。
其次,我们描述技术的方式会影响我们与该技术的关系以及我们如何看待它。这可能是有害的。想想那些被“自动驾驶”汽车引入虚假安全感的人们。我们担心,谈论AI“产生幻觉”(通常用于人类心理学的术语)有将聊天机器人拟人化的风险。ELIZA效应(以1960年代的聊天机器人命名)发生在人们将人类特征归因于计算机程序时。我们在谷歌员工开始相信该公司的一个聊天机器人具有感知能力的案例中极端地看到了这一点。将ChatGPT描述为胡说八道机器(即使它是一个非常令人印象深刻的机器)有助于减轻这种风险。
第三,如果我们将能动性归因于程序,这可能会在出现问题时将责任从使用ChatGPT的人或其程序员身上转移开。如果正如看起来的那样,这种技术将越来越多地用于重要事项例如医疗保健,那么至关重要的是,我们要知道在出现问题时谁负责。
因此,下次当您看到有人将AI编造内容描述为“幻觉”时,请称其为胡说八道!
这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。