当人工智能为我们写作时,人类会失去什么

在《 谁写了这篇文章? 》中,语言学家 Naomi S. Baron 讨论了人工智能如何威胁我们表达自我的能力

Illustration, robot writing on typewriter

人工智能已经渗透到我们日常生活的方方面面,无论是令人毛骨悚然的逼真深度伪造,还是带有“人工智能撰写”标签的在线新闻,亦或是可以诊断健康状况的新型工具。 我们会感觉我们所做的一切都通过某种软件运行,由某个神秘的程序解释,并保存在某个不知名的服务器上。 机器人何时才会接管一切? 它们已经接管了吗?

人工智能的最新发展提出了存在主义的问题,这些问题自我们提笔写作以来就一直困扰着我们:这是谁写的,我能信任它吗? 假新闻已是旧闻,但仍然有人争论莎士比亚是否存在,还是代表了多位作者。 大型语言模型 (LLM) 是作者的组合,每位作者都有自己的风格、声音和专业知识。 如果生成式人工智能程序 ChatGPT 不断尝试——并且我们不断地给它输入莎士比亚的作品——它会写出我们下一个伟大的悲剧吗?

美国大学的语言学家 Naomi S. Baron 多年来一直关注人工智能领域。 在她的最新著作《谁写了这篇文章?人工智能和效率的诱惑如何威胁人类写作》中,她深入探讨了问题的核心:如果我们将文字交给人工智能,我们会失去什么? 《大众科学》就人工智能出现后书面交流的所有权和可信度问题采访了 Baron。


关于支持科学新闻事业

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻事业 订阅。 通过购买订阅,您正在帮助确保未来能够继续讲述关于塑造我们当今世界的发现和思想的具有影响力的故事。


[以下是经过编辑的访谈记录。]

你用 ChatGPT 写过这本书的任何部分吗?

有一点,但只是少许。 我在 2022 年 11 月中旬完成了《 谁写了这篇文章?》,那时距离 ChatGPT 问世还有两周。 我理所当然地认为需要加入一些关于这个新奇机器人的内容。

我的解决方案是向 ChatGPT 询问这种尖端人工智能形式与创造力、教育和版权等问题的交叉点。 在书中,我引用了 ChatGPT 的一些回应。

当我问 ChatGPT 是否可以拥有其创作的短篇小说的版权时,第一次的答案是“否”,第二次是“是”。 这种差异反映了程序所使用的特定数据集部分。 对于“否”的回答,ChatGPT 告诉我,作为一个 LLM,它“没有能力持有版权或拥有任何形式的知识产权”。

根据美国版权法,这是真的。 但对于“是”的回答,该机器人引用了美国版权的其他方面:“为了使作品受到版权保护,它必须是原创的并且以有形形式固定下来,例如被书写或记录下来。 [ChatGPT 说],如果 GPT 写的短篇小说符合这些标准,那么它就有资格获得版权保护。”

一致性是大型语言模型的难题。

在考虑人工智能撰写的新闻时,这是否只是一个蛇吞噬自己尾巴的循环? 人工智能写作是否只是用来训练其他人工智能的素材?

你说得对。 对于大型语言数据集而言,唯一相关的事情是拥有可供消费的文本。 人工智能没有感知能力,也无法关心来源。

但是,当我的机器人与你的机器人对话时,人类的交流会发生什么? 微软、谷歌和其他公司正在构建注入人工智能的电子邮件功能,这些功能越来越多地“读取”我们收件箱中的内容,然后为我们起草回复。 今天的人工智能工具可以学习你的写作风格,并生成你可能自己写的东西的合理副本。

我担心的是,以节省时间和最小化努力为名,屈服于这种诱惑太容易了。 无论是什么让我们成为人类,使用文字和语法来表达我们的思想和感情的能力都是这种本质的关键组成部分。

在你的书中,你写道,“我们驯化技术。” 但对于人工智能来说,“驯化”是什么样的?

想想我们的犬类伙伴。 它们起源于狼,并且经过多年的进化,它们的一些物种才进化成狗,被驯化。

社会科学家谈论技术的“驯化”。 四十年前,个人电脑还是新奇事物。 现在它们已经无处不在,运行在它们之上的软件程序也是如此。 甚至维基百科——曾经被视为可疑的信息来源——也已被驯化。

我们理所当然地认为拼写检查、自动完成和预测文本等编辑工具是理所当然的。 翻译程序也是如此。 尚待观察的是,我们将如何驯化文本生成程序,例如 ChatGPT,它可以从虚拟的无到有地创建文档。

你对人工智能和 LLM 的理解如何改变了你阅读和写作的方式?

三年变化真大! 对于我自己的写作,我仍然很老派。 我有时仍然手写草稿。 相比之下,作为一名大学教授,我改变了我对待学生书面作业的方式。 过去几年,我假设文本是他们自己的——但今天不是这样了。 随着诸如 Microsoft Editor 或 Grammarly 等注入人工智能的编辑和风格程序,更不用说完全成熟的文本生成工具,学生们可以随时使用,我已经不知道是谁写了什么。

你认为哪些人工智能程序是最不具威胁性的,或者你认为应该接受的?

人工智能的写作能力是一项令人难以置信的杰作。 但就像发现火一样,我们必须弄清楚如何最好地利用它。 鉴于当前程序的新颖性,我们需要至少几年的时间来摸索前进的道路。

今天的翻译程序虽然不完美,但已经非常出色,好处是不懂外语的日常用户可以立即访问他们原本无法阅读的文档。 当然,一个潜在的缺点是会失去学习外语的动力。

生成式人工智能的另一个有希望的用途是编辑人类生成的文本。 当人工智能成为一种教学工具时,我感到很兴奋,但当它只是在作者之后进行清理,而没有吸取任何教训时,我的兴奋感就会降低。 用户需要在写作过程中成为积极的参与者。

正如你在书中说的那样,存在重视 ChatGPT 的速度和潜在效率,而不是人类技能发展的风险。 借助拼写检查的好处,我们可能会失去自己的拼写能力。 你认为我们最先会因为 ChatGPT 编写法律文件、电子邮件甚至新闻报道的能力而失去什么?

正如我在书中论证的那样,新闻业可能会感受到对就业人数的影响,尽管我不太担心留下的新闻记者的写作技能。

电子邮件是一个更细致的故事。 一方面,如果你使用 Microsoft Outlook 或 Gmail,你已经看到了很多在编写电子邮件时的自动完成功能。 另一方面,新版本的人工智能(想想 GPT-4)正在自行编写整个电子邮件。 现在真的可能变成我的机器人给你的机器人写信。 我担心像 ChatGPT 这样的工具会让我们不再关心用我们自己的声音、带着我们自己的情感来撰写我们自己的信息,当我们写信给对我们个人很重要的人时。

你如何看待最近和潜在的版权侵权案件,这些案件涉及作者出版商以及 ChatGPT?

版权侵权案件很有趣,因为我们确实处于未知的领域。 你会记得 The Authors Guild v. Google 案,其中作家协会声称 Google 图书在未经许可数字化图书然后显示片段时构成了版权侵权。 经过多年的诉讼,谷歌胜诉……根据合理使用原则的裁决。

从我从版权专家律师那里读到的内容来看,我怀疑 OpenAI [开发 ChatGPT 的公司] 最终也会胜诉。 但这是与作家协会案件的不同之处:对于 Google 图书,作者可能会损失版税,因为 Google 图书的用户可能不太可能购买书籍本身的副本。 然而,对于 ChatGPT,如果用户调用机器人生成文本,然后该用户希望出售该文本以获利,那可能是另一回事。 这是生成艺术领域案例的基础。 这是一个勇敢的法律新世界。

© . All rights reserved.