人工智能无处不在,并且对应该监控和监管它的人们构成了一个巨大的问题。政府机构应该在开发和部署的哪个阶段介入?使用人工智能的众多行业能够自我控制吗?这些公司会允许我们窥探其应用程序的幕后吗?我们能否可持续地开发人工智能,以合乎道德的方式对其进行测试,并负责任地部署它?
这些问题不能仅由一个机构或一种监管类型来解决。人工智能以一种方式被用来创建聊天机器人,以另一种方式被用来挖掘人体以寻找可能的药物靶点,又以另一种方式被用来控制自动驾驶汽车。每一种应用都既有可能造成危害,也有可能带来帮助。我们建议美国所有机构迅速携手合作,最终确定跨机构规则,以确保这些应用程序的安全性;与此同时,他们必须针对属于其管辖范围的行业制定具体的建议。
如果没有充分的监管,人工智能将继续存在偏见,提供错误的信息,错过医疗诊断,并导致交通事故和人员伤亡。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们今天世界的发现和想法的具有影响力的故事的未来。
人工智能有许多卓越且有益的用途,包括遏制气候变化、了解具有大流行潜力的病毒、解决蛋白质折叠问题以及帮助识别非法药物。但人工智能产品的输出质量仅与其输入质量一样好,而这正是大部分监管问题的症结所在。
从根本上说,人工智能是一种计算过程,它在输入的大量数据中寻找模式或相似之处。当被问及问题或被告知要解决问题时,程序会使用这些模式或相似之处来回答。因此,当您要求像ChatGPT这样的程序以埃德加·爱伦·坡的风格写一首诗时,它不必思考虚弱和疲惫。它可以从所有可用的坡的作品,以及坡的评论、赞扬和模仿中推断出风格,这些作品都曾呈现给它。尽管该系统没有一颗会说话的心,但它似乎在学习。
目前,我们几乎无法知道哪些信息输入到人工智能应用程序中,这些信息来自哪里,质量如何以及是否具有代表性。根据美国现行法规,公司不必告知任何人他们用来构建应用程序的代码或训练材料。艺术家、作家和软件工程师正在起诉一些流行的生成式人工智能程序背后的公司,原因是他们将原创作品变成训练数据,而没有补偿甚至承认这些图像、文字和代码的人类创作者。这是一个版权问题。
然后是黑匣子问题——即使是开发者也不太清楚他们的产品如何使用训练数据来做出决策。当您得到错误的诊断时,您可以问您的医生为什么,但您不能问人工智能。这是一个安全问题。
如果您被拒绝房屋贷款或未被考虑从事通过自动化筛选的工作,您无法向人工智能申诉。这是一个公平问题。
在将其产品发布给公司或公众之前,人工智能创建者会在受控情况下对其进行测试,以查看它们是否给出正确的诊断或做出最佳的客户服务决策。但是,许多此类测试并未考虑现实世界的复杂性。这是一个功效问题。
一旦人工智能在现实世界中发布,谁来负责?ChatGPT会随意编造答案。它会产生幻觉,可以这么说。DALL-E 允许我们使用提示制作图像,但如果图像是虚假的并且具有诽谤性怎么办?制作这两款产品的公司 OpenAI 是否应该负责,还是使用它制作假图像的人应该负责?隐私方面也存在重大担忧。一旦有人将数据输入程序,它归谁所有?可以追溯到用户吗?您提供给聊天机器人以解决手头问题的信息归谁所有?这些都是伦理问题。
OpenAI 的首席执行官 Sam Altman 告诉国会,人工智能需要受到监管,因为它可能本质上是危险的。一群技术专家呼吁暂停开发比 ChatGPT 更强大的新产品,以便在所有这些问题得到解决之前(这种暂停并非新鲜事——生物学家在1970 年代就做过这件事,以暂停将 DNA 片段从一种生物体转移到另一种生物体,这成为分子生物学和理解疾病的基石)。被广泛认为是现代机器学习技术基础的开发者 Geoffrey Hinton 也对人工智能的发展方式感到担忧。
中国正在尝试监管人工智能,重点关注黑匣子和安全问题,但有些人认为该国的努力是维护政府权威的一种方式。欧盟正在像往常一样对待政府干预问题那样对待人工智能监管:通过风险评估和安全第一的框架。白宫已经提供了一个蓝图,说明公司和研究人员应该如何进行人工智能开发——但会有人遵守其指导方针吗?
最近,联邦贸易委员会主席 Lina Khan 表示,根据之前在保障互联网安全方面的工作,联邦贸易委员会可以监督人工智能的消费者安全和功效。该机构目前正在调查 ChatGPT 的不准确之处。但这还不够。多年来,人工智能已经通过客户服务以及 Alexa 和 Siri 融入到我们生活的方方面面。人工智能正在进入医疗产品领域。它已经被用于政治广告来影响民主。当我们司法系统正在努力解决联邦机构的监管权力时,人工智能正在迅速成为下一个,也许是最大的考验。我们希望联邦监管能够使这项新技术在安全和公平的环境中蓬勃发展。