拜登关于人工智能的行政命令是一个良好的开端,专家表示,但还不够

本周签署的一项新的行政命令为联邦人工智能标准和要求奠定了基础,并超越了之前与人工智能公司达成的自愿协议

President Joe Biden sits at a desk signing an executive order. Vice President Kamala Harris stands to his left

10月30日,美国总统乔·拜登在白宫东厅签署了一项侧重于政府人工智能监管的行政命令。

美国现在拥有迄今为止影响最广泛的官方人工智能政策。乔·拜登总统本周签署了一项行政命令,敦促制定新的联邦人工智能安全、保障和可信赖性标准,并解决人工智能风险和发展的许多其他方面。这项广泛的命令近20000字,使用“人工智能”一词来指代可以模仿某些人类能力的自动化预测、感知或生成软件。白宫的这项行动发生在英国组织和主办的国际人工智能安全峰会开幕前两天,届时世界各国领导人将讨论关于快速发展技术的全球战略。

杜克大学计算机科学家辛西娅·鲁丁说:“这有点像我们所希望的那样。”她研究机器学习,并倡导人工智能监管。鲁丁并不认为拜登的命令是完美的,但她称其在字面意义上的规模和可能的影响上都是“非常非常大的”:“它涉及大量的政府实体,并启动了新的监管和安全委员会,这些委员会将人工智能作为其主要任务进行研究,而不仅仅是副业。”

斯坦福大学研究人工智能治理的法律和政治学教授丹尼尔·何也同意:“白宫在这项行政命令中纳入了很多内容。”“我确实认为这是一个非常重要的进步。”(何在国家人工智能咨询委员会任职,但在《大众科学》上以个人身份发言,而不是作为NAIAC成员。)


关于支持科学新闻

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们今天世界的发现和思想的具有影响力的故事的未来。


人工智能——特别是生成式人工智能系统,如OpenAI的ChatGPT——的迅速崛起,在过去一年中引发了强烈的担忧。关于未来机器人接管存在一些生存恐惧,但非常具体和可证明的风险也正在当下展开。

例如,人工智能模型显然加剧了通过视觉深度伪造和即时文本生成造成的虚假信息问题。机器学习算法已经编码了偏见,这些偏见可能会放大和自动化现有的歧视模式,例如算法化的美国国税局工具,该工具不成比例地针对黑人纳税人进行审计。这些偏见可以长期影响人类行为,新兴研究表明。通过人工智能系统收集的大量数据(包括面部识别软件)中存在隐私威胁,并被用于训练新的生成式人工智能模型。人工智能也可能成为主要的国家安全威胁;例如,人工智能模型可能被用于加速新型化学武器的开发。

埃默里大学法学院研究伦理人工智能的教授伊费奥马·阿朱恩瓦说:“人工智能需要被治理,因为它具有力量。”她补充说,“人工智能工具可以以可能对社会造成灾难性后果的方式被使用。”

新命令使美国朝着更全面的AI治理迈进。它建立在拜登政府先前的行动之上,例如多家大型科技公司在7月份同意的自愿承诺清单和一年前发布的人工智能权利法案蓝图。此外,该政策还遵循了另外两项先前以人工智能为重点的行政命令:一项是关于联邦政府自身对人工智能的使用,另一项旨在促进联邦政府在人工智能领域的招聘。然而,与之前的行动不同,新签署的命令超越了一般原则和指导方针;一些关键部分实际上要求科技公司和联邦机构采取具体行动。

例如,新命令规定,人工智能开发商在公开发布未来大型人工智能模型或此类模型的更新版本之前,必须与美国政府共享安全数据、培训信息和报告。具体而言,该要求适用于包含“数百亿参数”的模型,这些模型在广泛的数据上进行训练,并可能对国家安全、经济、公共卫生或安全构成风险。这项透明度规则可能适用于OpenAI的GPT的下一个版本,即为其聊天机器人ChatGPT提供支持的大型语言模型。拜登政府正在根据《国防生产法》(1950年的一项法律,与战时联系最紧密,尤其是在COVID疫情早期被用于增加N95口罩的国内供应)实施这一要求。这项要求公司与联邦政府共享其人工智能模型信息的规定是朝着强制科技公司透明化迈出的第一步,尽管是有限的一步,许多人工智能专家近几个月来一直在倡导这种透明化。

白宫的政策还要求创建联邦标准和测试,这些标准和测试将由国土安全部和能源部等机构部署,以更好地确保人工智能不会威胁国家安全。相关标准将部分由国家标准与技术研究院制定,该研究院于1月份发布了其自身的人工智能风险管理框架。开发过程将包括“红队演练”,即仁慈的黑客与模型的创建者合作,抢先分析出漏洞。

除了这些强制措施外,行政命令主要创建了工作组和咨询委员会,启动了报告倡议,并指示联邦机构在明年内发布关于人工智能的指导方针。该命令涵盖了一份情况说明书中概述的八个领域:国家安全、个人隐私、公平和公民权利、消费者保护、劳工问题、人工智能创新和美国竞争力、人工智能政策方面的国际合作以及联邦政府内部的人工智能技能和专业知识。在这些总括类别中,有关于评估和促进人工智能在教育、医疗保健和刑事司法中合乎道德使用的章节。

鲁丁说:“这是许多方向上的许多第一步。”她指出,虽然该政策本身不是一项严格意义上的监管,但它是“监管的重要先导,因为它通过所有人工智能专项工作组以及机构的研发工作收集了大量数据”。她解释说,收集此类信息对于下一步至关重要:为了监管,你首先需要了解正在发生的事情。

亚利桑那州立大学研究人工智能治理的法学教授加里·马钱特说,通过在联邦政府内部制定人工智能标准,行政命令可能有助于创建新的AI规范,这些规范可能会渗透到私营部门。他说,该命令“将产生涓滴效应”,因为政府很可能继续成为人工智能技术的主要购买者。“如果作为客户的政府需要它,那么它将在许多情况下全面实施。”

但是,仅仅因为该命令旨在迅速刺激信息收集和政策制定,并为每个行动设定了最后期限,但这并不意味着联邦机构将按时完成这份雄心勃勃的任务清单。何说:“这里的一个警告是,如果你没有人力资本,特别是技术专业知识的形式,那么可能很难始终如一且迅速地实施这些类型的要求。”他暗示,根据2023年斯坦福报告,在人工智能领域获得博士学位的人中,只有不到百分之一的人进入政府部门工作。何追踪了先前关于人工智能的行政命令的结果,发现不到一半的强制行动得到了可验证的实施。

而且,尽管新政策范围广泛,但仍然存在明显的漏洞。鲁丁指出,行政命令没有提及专门保护生物特征数据(包括面部扫描和声音克隆)的隐私。阿朱恩瓦说,她本希望看到更多关于评估和减轻人工智能偏见和歧视性算法的执行要求。斯坦福大学以人为本人工智能研究所隐私和数据政策研究员詹妮弗·金说,在解决政府在国防和情报应用中使用人工智能方面存在差距。“我担心人工智能在军事背景下以及在监视方面的使用。”

何补充说,即使在命令似乎涵盖其基础的地方,在“政策制定者的期望与技术上可行的内容之间可能存在相当大的错配”。他指出,“水印”是其中的一个中心例子。新政策命令商务部在未来八个月内确定标记人工智能生成内容的最佳实践——但目前还没有成熟、稳健的技术方法来实现这一点。

最后,仅凭行政命令不足以解决先进人工智能带来的所有问题。行政命令本质上权力有限,很容易被撤销。即使是该命令本身也呼吁国会通过数据隐私立法。何说:“立法行动在未来发展中非常重要。”金同意。“我们需要针对人工智能监管的多个方面的具体私营部门立法,”她说。

尽管如此,每位《大众科学》就该命令采访或通信的专家都将其描述为向前迈出的有意义的一步,填补了政策空白。多年来,欧盟一直在公开致力于制定《欧盟人工智能法案》,该法案即将成为法律。但美国未能取得类似的进展。随着本周的行政命令,人们正在努力跟进,并且地平线上出现了转变——只是不要期望它们明天就会到来。金说,该政策“不太可能改变人们目前对人工智能的日常体验。”

*编者注(2023年11月3日):本句在发布后经过编辑,以澄清詹妮弗·金在斯坦福大学以人为本人工智能研究所的职称。

© . All rights reserved.