人工智能需要规则,但谁来制定这些规则?

英国人工智能安全峰会上的冲突暴露了在如何监管人工智能技术方面的紧张关系

Attendees, including U.S. vice president Kamala Harris and British prime minister Rishi Sunak, among other governmental and private-interest officials, line up to pose for a photograph

与会者在英国布莱切利举行的英国人工智能安全峰会第二天(11月2日)合影留念。

本周,来自世界各地的大约 150 位政府和行业领导人,包括副总统卡玛拉·哈里斯和亿万富翁埃隆·马斯克,齐聚英国参加英国人工智能安全峰会。这次会议是全球讨论如何监管人工智能的焦点。但对于一些专家来说,这也突显出人工智能公司在对话中扮演的过分重要的角色——以牺牲许多可能受到影响但在人工智能成功中没有经济利益的人为代价。

11 月 1 日,来自 28 个国家和欧盟的代表签署了一项名为《布莱切利宣言》的协议(以峰会举办地英国布莱切利布莱切利公园命名),他们在协议中同意继续讨论如何安全部署人工智能。但对于论坛十分之一的参与者来说,其中许多人代表民间社会组织,在英国进行的对话还不够好。

在《布莱切利宣言》之后,11 个与会组织发布了一封公开信,称峰会专注于未来的潜在风险——例如恐怖分子或网络犯罪分子利用生成式人工智能,或者更科幻的想法,即人工智能可能变得有感知能力,摆脱人类控制并奴役我们所有人——这对世界是一种伤害。该信表示,峰会忽视了人工智能已经存在的真实且当前的风险,包括歧视、经济 displacement、剥削和其他形式的偏见。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您将帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。


非营利组织民主与技术中心 (CDT) 的首席执行官兼声明签署人之一亚历山德拉·里夫·吉文斯说:“我们担心,峰会狭隘地关注长期安全危害可能会分散人们对政策制定者和公司解决人工智能系统已经影响人们权利的方式的迫切需求的注意力。”她说,随着人工智能发展如此迅速,专注于避免理论上的未来风险的规则,占用了许多人认为可以更好地用于撰写解决当前危险的立法的精力。

其中一些危害的出现是因为生成式人工智能模型是在从互联网获取的数据上训练的,这些数据包含偏见。因此,此类模型产生的结果会偏向某些群体,而使其他群体处于不利地位。例如,如果您要求图像生成人工智能生成首席执行官或商业领袖的图像,它将向用户展示中年白人男性的照片。与此同时,CDT 自身的研究强调了非英语使用者因使用生成式人工智能而处于不利地位,因为大多数模型的训练数据都是英语。

然而,对于一些强大的人工智能公司(包括 OpenAI,该公司开发了 ChatGPT)来说,更遥远的未来风险情景显然是优先事项。许多签署公开信的人认为,人工智能行业在塑造诸如布莱切利公园峰会等重大相关事件中具有过大的影响力。例如,峰会的官方日程安排用“前沿人工智能”一词描述了当前大量生成式人工智能工具,这与人工智能行业在其自我监管监督机构前沿模型论坛的命名中使用的术语相呼应。

通过对这些事件施加影响,强大的公司在塑造官方人工智能政策方面也发挥着不成比例的作用——这种情况被称为“监管俘获”。因此,这些政策往往优先考虑公司利益。斯坦福大学网络政策中心国际政策主任玛丽特耶·沙克说:“为了拥有民主的进程,这个进程应该是独立的,而不是公司俘获的机会。”

例如,大多数私营公司并不优先考虑开源人工智能(尽管也有例外,例如 Meta 的 LLaMA 模型)。在美国,在英国峰会开始前两天,乔·拜登总统发布了一项行政命令,其中包括一些学术界人士认为有利于私营部门参与者而牺牲开源人工智能开发者的条款。“这可能会对开源 [AI]、开放科学和人工智能的民主化产生巨大影响,”佐治亚理工学院计算机副教授马克·里德尔说。 10 月 31 日,非营利组织 Mozilla 基金会发布了一封单独的公开信,强调人工智能模型的开放性和安全性的必要性。其签署者包括纽约大学人工智能教授兼 Meta 首席人工智能科学家 Yann LeCun。

一些专家只是要求监管机构将对话范围扩大到人工智能公司主要担心的范围之外——未来通用人工智能 (AGI) 之手带来的生存风险——扩大到更广泛的潜在危害目录。对于其他人来说,即使是更广泛的范围也不够好。

人工智能公司 Hugging Face 的首席伦理科学家玛格丽特·米切尔说:“虽然我完全理解关于 AGI 风险分散注意力以及对企业同化的担忧的观点,但我开始担心,即使试图关注风险也对企业过度有帮助,而牺牲了人们的利益。”(该公司派代表参加了布莱切利公园峰会,但米切尔本人当时在美国参加了纽约州参议员查克·舒默同时举行的论坛。)

米切尔说:“人工智能监管应该以人为本,而不是以技术为本。” “这意味着[应该]减少关注‘这项技术可能会做什么坏事,以及我们如何对其进行分类?’,而更多地关注‘我们应该如何保护人们?’”米切尔对基于风险的方法的谨慎态度部分是因为如此多的公司非常愿意在本周的英国峰会和其他类似活动中签署该方法。“这立即给我敲响了警钟,”她说,并补充说她在舒默的论坛上也提出了类似的观点。

米切尔主张对人工智能监管采取基于权利的方法,而不是基于风险的方法。布鲁金斯学会研究员奇纳萨·T·奥科洛也赞同这一点,她参加了英国的活动。她说:“峰会上的主要对话围绕着‘前沿模型’对社会构成的风险展开,但忽略了人工智能对数据标记员造成的危害,而数据标记员可以说是人工智能开发中最重要的人。”

专门关注人权将对话置于政治家和监管机构可能更舒适的领域。米切尔认为,这将有助于立法者自信地制定立法,以保护更多面临人工智能危害风险的人。它还可以为那些渴望保护其现有地位及其数十亿美元投资的科技公司提供一种妥协方案。她说:“通过政府关注权利和目标,你可以将政府最擅长的自上而下的监管,与开发者最擅长的自下而上的监管结合起来。”

© . All rights reserved.