错误逮捕、不断扩张的监控网络、诽谤和深度伪造色情制品,这些都是目前市场上所谓的“人工智能”工具已经存在的危险。这些问题,而不是想象中可能毁灭人类的潜力,才是人工智能的真正威胁。
末日论的炒作围绕着许多人工智能公司,但它们的技术已经造成了无数危害,包括在住房、刑事司法和医疗保健方面的例行歧视,以及在非英语语言中仇恨言论和虚假信息的传播。算法管理程序使工人遭受日常的工资盗窃,而且这些程序正变得越来越普遍。
尽管如此,2023年,非营利组织人工智能安全中心发布了一份声明,由数百名行业领袖共同签署,警告“人工智能带来的灭绝风险”,并声称这类似于核战争和疫情的威胁。Open AI(热门语言学习模型ChatGPT背后的公司)处境艰难的首席执行官山姆·奥特曼此前曾在国会听证会上暗示了这种风险,暗示生成式人工智能工具可能会“错得离谱”。2023年夏天,人工智能公司的几位高管会见了总统乔·拜登,并就遏制“人工智能风险的最重要来源”做出了几项无力的自愿承诺,暗示了理论上的末日威胁,而不是强调实际存在的威胁。企业人工智能实验室用伪科学研究报告来证明这种姿态是合理的,这些报告将监管注意力转移到虚构的场景上,并使用危言耸听的术语,如“生存风险”。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您将帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。
更广泛的公众和监管机构绝不能落入这种圈套。相反,我们应该向实践同行评审的学者和活动家寻求帮助,他们已经反击了人工智能的炒作,试图了解人工智能在此刻此地的有害影响。
由于“人工智能”一词含义模糊,因此很难对其进行清晰的讨论。从某种意义上说,它是计算机科学的一个子领域的名称。在另一种意义上,它可以指在该子领域中开发的计算技术,其中大多数技术现在都集中于基于大型数据集的模式匹配以及基于这些模式生成新媒体。在营销文案和初创公司宣传材料中,“人工智能”一词充当神奇的仙尘,可以为您的业务增添活力。
自从OpenAI在2022年末发布ChatGPT(以及微软将该工具整合到其Bing搜索引擎中)以来,文本合成机器已成为最突出的人工智能系统。诸如ChatGPT之类的大型语言模型可以生成非常流畅且看似连贯的文本,但它们不理解文本的含义,更不用说推理能力了。(认为情况并非如此就是在没有理解的情况下强加理解,这是人工智能鼓吹者纯粹出于信仰而做的事情。)这些系统相当于巨大的魔法8号球,我们可以通过将我们发送给它们的提示框定为问题并将它们的输出解释为答案来玩。
不幸的是,这种输出可能看起来非常合理,以至于在没有明确表明其合成来源的情况下,它会成为我们信息生态系统中有害且阴险的污染物。我们不仅有可能将合成文本误认为可靠信息,而且这种非信息还反映并放大了人工智能训练数据中编码的偏见——就大型语言模型而言,互联网上发现的各种偏见都是如此。此外,合成文本听起来很权威,尽管它缺乏对真实来源的引用。这种合成文本的蔓延持续得越久,我们的处境就越糟糕,因为我们越难找到值得信赖的来源,也越难在我们找到它们时信任它们。
销售这项技术的人们提出,文本合成机器可以修复我们社会结构中的各种漏洞:K-12教育中教师的短缺、低收入人群获得医疗保健的困难以及无法聘请律师的人们缺乏法律援助,仅举几例。
但是,部署这项技术实际上损害了工人。首先,这些系统依赖于从创建它们的艺术家和作者那里窃取的巨量训练数据,而没有给予补偿。此外,标记数据以创建旨在防止人工智能系统最有害的输出被释放的“护栏”的任务是重复性的,而且常常是创伤性的劳动,由零工和承包商执行,这些人陷入了全球范围内工资和工作条件不断恶化的竞争中。更重要的是,雇主正在寻求通过利用自动化来削减成本,解雇以前稳定工作岗位上的人员,然后以较低的工资重新雇用他们来纠正自动化系统的输出。这种情况促成了最近好莱坞的演员和编剧罢工,在那里,收入过高的电影大亨们策划以一天的工资购买永久权利,以使用人工智能替代演员,并按件雇用编剧来修改人工智能产生的语无伦次的剧本。
与人工智能相关的政策必须是科学驱动的,并建立在相关研究的基础上,但太多的人工智能出版物来自企业实验室或获得不成比例的行业资助的学术团体。这些出版物中有许多是基于垃圾科学的——它是不可重复的,隐藏在商业秘密背后,充满了炒作,并且使用的评估方法无法衡量它们声称要衡量的东西。
最近的例子包括微软研究院发表的一篇155页的预印本论文,题为“通用人工智能的火花:GPT-4的早期实验”,该论文声称在OpenAI的文本合成机器之一GPT-4的输出中发现了“智能”。然后是OpenAI关于GPT-4的自有技术报告,其中声称,除其他外,OpenAI系统具有解决训练数据中未发现的新问题的能力。没有人可以测试这些说法,因为OpenAI拒绝提供访问权限,甚至拒绝描述这些数据。与此同时,“人工智能末日论者”引用这种垃圾科学,努力将世界的注意力集中在全能机器可能失控并摧毁人类的幻想上。
我们敦促政策制定者借鉴扎实的学术研究,这些研究调查了人工智能的危害和风险,以及将权力委托给自动化系统所造成的危害,其中包括剥夺穷人的权利以及加强对黑人和原住民家庭的治安。该领域(包括社会科学和理论构建)的扎实研究以及基于该研究的扎实政策将使重点保持在不使用这项技术来伤害人们上。
这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。