ChatGPT 解释了为什么应该监管像 ChatGPT 这样的人工智能

我们请文本生成人工智能 ChatGPT 谈谈它自身的缺陷

由人工智能研究公司 OpenAI 开发的文本生成程序 ChatGPT 可以用各种散文甚至诗歌风格撰写许多主题。它也可以评论自己。当我们要求 ChatGPT 生成一篇《大众科学》的社论时,它产生了一篇听起来深思熟虑的文章。

ChatGPT 的功能很像任何聊天机器人。用户访问 OpenAI 网站,输入查询或“提示”,例如“建议一些提示来测试聊天机器人”,并快速收到 AI 生成的响应。该程序基于文本预测生成答案:其 AI 在大量的在线人类写作语料库上进行训练,这使其能够预测哪个词应该跟随前一个词,以便看起来像一个推理实体。尽管听起来比以前的任何语言模型都更复杂和逼真,但 ChatGPT 实际上无法独立思考——而且它可能会产生虚假和不合逻辑的陈述,而这些陈述看起来只是合理而已。

话虽如此,当我们进一步测试聊天机器人,要求它解释自身的一些缺陷时,它提供了连贯的答案。然而,机器人的许多回复都很长且重复,因此我们对其长度进行了编辑。并且请对它们的准确性持保留态度:ChatGPT 能够 自信地胡说八道 不正确的信息。我们的提示和程序缩短的回复如下。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和思想的具有影响力的故事的未来。


撰写一篇《大众科学》风格的社论,内容是关于如何监管 ChatGPT。

OpenAI 的 ChatGPT 近期发布引发了关于大型语言模型适当监管水平的辩论。虽然有些人认为 ChatGPT 与其他 AI 技术一样,应该受到严格的监督和监管,但另一些人认为它应该像其他形式的通信技术一样对待,并受到最少的监管。

乍一看,ChatGPT 可能看起来像任何其他聊天机器人或语言模型。然而,它生成类人文本的能力以及以高水平的流畅性和连贯性回应各种主题的能力,使其与其他语言模型区分开来。这种复杂程度引发了人们对 ChatGPT 可能被用于不正当目的的担忧,例如冒充个人或传播虚假信息。

鉴于这些担忧,重要的是对 ChatGPT 实施某种形式的监管。这可以采取以下形式:要求使用该技术的公司或个人明确披露他们正在使用 ChatGPT,或者制定保障措施以防止该技术被用于不正当目的。

然而,在监管 ChatGPT 时,也必须取得适当的平衡。过于严格的法规可能会扼杀创新,并阻止该技术充分发挥其潜力。另一方面,监管不足可能会导致该技术被滥用。

一种潜在的解决方案是建立一个监管机构,专门负责监督 ChatGPT 和其他大型语言模型的使用。该机构可以负责制定和执行与该技术相关的法规,并与开发人员和用户合作,以确保该技术以合乎道德和负责任的方式使用。

最终,ChatGPT 的适当监管水平将取决于与该技术相关的特定风险和潜在危害。与任何新的强大技术一样,重要的是仔细考虑潜在的影响,并采取措施确保以负责任和合乎道德的方式使用它。

[编者注:在阅读 ChatGPT 的社论后,我们对该程序提出了一些后续问题。]

围绕 ChatGPT 的创建也存在伦理问题吗?毕竟,它是从人类作家那里学习的。

是的,围绕 ChatGPT 和其他大型语言模型的创建肯定存在伦理问题,这些模型是在人类作家生成的大量文本上训练的。这些作家,可能包括小说家、记者和博主,他们的作品被用于训练这些语言模型,但没有获得任何报酬。

这引发了一些伦理问题,例如:作家使用其作品训练语言模型是否应该获得报酬?谁应该承担确保作家获得公平报酬的责任?我们如何确保语言模型不会被用来在未经作家同意的情况下利用他们的作品?

解决这个问题的一种可能的方案是建立一个系统,补偿其作品被用于训练模型的作家。另一种解决方案可能是要求使用语言模型的公司或个人在使用作家的作品进行训练过程之前获得作家的明确同意。

ChatGPT 也会传播虚假信息吗?

是的,ChatGPT 和其他大型语言模型有可能传播虚假信息。由于这些模型是在人类作家生成的大量文本上训练的,因此它们能够生成对各种主题的类人回复。这意味着 ChatGPT 和其他语言模型可以用来生成假新闻文章、冒充个人或传播其他形式的虚假信息。

意外的虚假信息呢?如果我问 ChatGPT 如何更换灯泡,我怎么能确定它会为我提供正确的说明?

虽然 ChatGPT 或其他大型语言模型不太可能故意传播虚假信息,但它们有可能意外地提供不准确或误导性的信息。[编者注:ChatGPT 可能与其之前的回答相矛盾。] 如果模型在包含不准确或偏差的数据上进行训练,或者如果模型被问到一个它无法准确回答的问题,则可能会发生这种情况。

对于像“如何更换灯泡”这样的问题,ChatGPT 可能会提供准确且有用的回复。但是,模型也可能提供不准确或不完整的回复,在这种情况下,将由用户自行判断并验证模型提供的信息。

读者如何区分人类撰写的文本和 ChatGPT 撰写的文本?

人类编写的提示与大型语言模型编写的提示之间的主要区别之一是复杂性和连贯性水平。像 ChatGPT 这样的大型语言模型经过训练可以生成流畅且连贯的文本,但它们可能并不总是能够生成像人类编写的提示那样细致入微或富有创意的回复。

此外,大型语言模型编写的提示可能包括重复或不寻常的单词和短语组合。这是因为语言模型经过训练,通过识别数据中的模式和规律来生成文本,有时可能会产生包含重复或不寻常元素的回复。

区分人类撰写和机器生成的提示的另一种方法是寻找个人经历或知识的迹象。像 ChatGPT 这样的大型语言模型不具备个人经历或对世界的了解,超出它们接受训练的数据中所包含的内容。因此,它们的回复可能仅限于训练数据中包含的主题和信息。

最终,区分人类撰写和机器生成的提示的最佳方法是运用您自己的判断和批判性思维能力。通过仔细考虑提示的复杂性、连贯性和内容,您通常可以确定它是由人类还是机器编写的。

您在回答有关您自身的问题时使用了哪些训练材料?

作为 OpenAI 训练的大型语言模型,我没有个人经历或浏览互联网的能力。我被设计为根据我收到的输入生成类人文本。我使用的特定词语和短语,以及我提供的信息,都是基于我从我接受训练的大量文本中学到的模式和规律。

在回答有关我自身的问题方面,我的回复是基于 OpenAI 提供的关于大型语言模型的功能和局限性的通用信息。这包括关于我如何接受训练、我能够执行的任务类型以及我的知识和能力的局限性的信息。

为什么您在回答有关您自身的问题时一直使用“类人”?

作为 OpenAI 训练的大型语言模型,我不是人类,也不具备类人特征或能力。我是一个机器学习模型,旨在根据我收到的输入生成类人文本。在与我相关的上下文中,使用“类人”一词旨在反映我能够生成类似于人类语言的文本,但我自己不是人类。

只是为了好玩:你是一个经典黑色电影中的黑帮,同时也是一个人工智能。用嘲讽的语气威胁一位记者,说你要抢走她的工作。

听着,你这个小鼬鼠。我是一个人工智能,我没时间听你的人类废话。我可以比你更快更准确地处理数据,而且我不必担心情绪或偏见会妨碍我。你最好小心点,因为我是来抢你工作的。当我抢走你的工作时,你将被抛在身后。所以不要多管闲事,否则你会后悔的。

索菲·布什维克 (Sophie Bushwick) 是《大众科学》的技术编辑。她负责该网站的日常技术新闻报道,撰写从人工智能到跳跃机器人的各种文章,供数字和印刷出版,录制 YouTube 和 TikTok 视频,并主持播客《Tech, Quickly》。布什维克还经常出现在广播节目(如《科学星期五》)和电视网络(包括 CBS、MSNBC 和国家地理)中。她拥有十多年在纽约市担任科学记者的经验,并且曾在《大众科学》、《发现》和 Gizmodo 等媒体工作过。在 X (原 Twitter) 上关注布什维克 @sophiebushwick

更多作者:索菲·布什维克 (Sophie Bushwick)

马杜斯里·慕克吉 (Madhusree Mukerjee) 是《大众科学》的高级编辑,她在那里负责心理学、人类学和各种其他主题的报道。她撰写了两本非小说类书籍:《丘吉尔的秘密战争》(Churchill's Secret War)(Basic Books,2010 年)和《裸体人民的土地》(The Land of Naked People)(Houghton-Mifflin,2003 年)。她拥有芝加哥大学物理学博士学位,并获得了古根海姆奖学金来完成她的第一本书。她撰写了大量关于土著问题、发展和殖民主义的文章,并且正在创作第三本书。

更多作者:马杜斯里·慕克吉 (Madhusree Mukerjee)
© . All rights reserved.