
以下文章经 The Conversation 许可转载, 这是一个报道最新研究的在线出版物。
2023年是人工智能发展及其在社会中作用的转折点。 这一年见证了 生成式人工智能的出现, 这项技术从幕后走向公众视野的中心舞台。 它还见证了 人工智能初创公司 的 董事会闹剧 在 新闻 周期 中 占据 了 好几天。 并且 它 见证 了 拜登 政府 发布 了 一项 行政 命令 , 以及 欧盟 通过 一项 旨在 监管 人工智能 的 法律 , 这些 举措 或许 最好 被 描述 为 试图 给 一匹 已经 飞奔 的 马 套上 缰绳。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。 通过购买订阅,您将有助于确保未来能够继续讲述关于塑造我们当今世界的发现和想法的具有影响力的故事。
我们召集了一个人工智能学者小组,展望2024年,描述人工智能开发者、监管机构和普通民众可能面临的问题,并提出他们的希望和建议。
凯西·费斯勒,科罗拉多大学博尔德分校信息科学副教授
2023年是人工智能炒作之年。 无论叙事是人工智能将拯救世界还是毁灭世界,人们常常感觉对人工智能未来可能样子的设想压倒了当前的现实。 尽管我认为预测未来的危害是克服科技领域道德债务的关键组成部分,但过度沉迷于炒作可能会创造出一种人工智能的愿景,它看起来更像魔法,而不是一种仍然可以通过明确选择来塑造的技术。 但要掌控局面,就需要更好地理解这项技术。
2023年人工智能的主要辩论之一是关于ChatGPT和类似聊天机器人在教育中的作用。 去年这个时候,最相关的头条新闻集中在学生可能如何使用它作弊,以及教育工作者如何争先恐后地阻止他们这样做——其方式往往弊大于利。
然而,随着时间的推移,人们逐渐认识到,不教学生了解人工智能可能会使他们处于劣势,许多学校撤销了禁令。 我认为我们不应该彻底改革教育,将人工智能置于一切事物的中心,但如果学生不了解人工智能的工作原理,他们就不会理解它的局限性——因此也就不会理解它在哪些方面有用和适用,以及在哪些方面不适用。 这不仅仅适用于学生。 人们越了解人工智能的工作原理,他们就越有能力使用它和批判它。
因此,我对2024年的预测,或者说我的希望是,将会掀起一场学习的热潮。 1966年,ELIZA聊天机器人的创造者约瑟夫·魏泽鲍姆写道,机器“通常足以让即使是最有经验的观察者也眼花缭乱”,但一旦用“足够浅显的语言解释其内部运作,使其变得易于理解,它的魔力就会消失”。 生成式人工智能的挑战在于,与ELIZA非常基本的模式匹配和替换方法相比,要找到“足够浅显”的语言来使人工智能的魔力消失要困难得多。
我认为这是有可能实现的。 我希望那些竞相聘请更多人工智能技术专家的大学,也能在聘请人工智能伦理学家方面投入同样的精力。 我希望媒体 outlets 能够帮助人们认清炒作。 我希望每个人都能反思自己对这项技术的使用及其后果。 我希望科技公司在考虑哪些选择将继续塑造未来时,能够倾听知情的批评。
肯塔罗·托亚玛,密歇根大学社区信息学教授
1970年,人工智能先驱和神经网络怀疑论者马文·明斯基告诉《生活》杂志,“在三到八年内,我们将拥有一台具有普通人一般智力的机器。” 随着奇点的到来,人工智能与人类智能相匹配并开始超越人类智能的时刻——尚未完全到来——可以肯定地说,明斯基的预测至少偏离了10倍。 对人工智能做出预测是危险的。
不过,对未来一年的预测似乎没有那么冒险。 2024年人工智能会有什么期望? 首先,比赛开始了! 自明斯基的黄金时代以来,人工智能的进步一直很稳定,但2022年ChatGPT的公开发布引发了一场为利润、荣誉和全球霸权而进行的全面竞争。 预计会出现更强大的人工智能,以及大量新的AI应用程序。
最大的技术问题是人工智能工程师能在多快和多彻底地解决深度学习目前的阿喀琉斯之踵——可以称之为广义的硬推理,比如演绎逻辑。 对现有的神经网络算法进行快速调整是否就足够了,还是像神经科学家加里·马库斯建议的那样,需要一种根本不同的方法? 大量人工智能科学家正在研究这个问题,因此我预计2024年会有一些进展。
与此同时,新的AI应用也可能导致新的问题。 您可能很快就会开始听到人工智能聊天机器人和助手相互对话,代表您进行完整的对话,但却在您背后进行。 其中一些会失控——可笑、悲惨或两者兼而有之。 尽管新兴的监管,但难以检测的深度伪造、人工智能生成的图像和视频可能会泛滥成灾,对个人和各地的民主制度造成更多肮脏的损害。 而且,很可能会出现甚至在五年前都不可能出现的新类型的人工智能灾难。
说到问题,那些对人工智能发出最响亮警报的人——比如埃隆·马斯克和山姆·奥特曼——似乎无法阻止自己构建更强大的人工智能。 我预计他们会继续做更多同样的事情。 他们就像纵火犯,呼唤自己煽动的火焰,恳求当局约束他们。 因此,我最希望2024年能够实现的目标——尽管这似乎进展缓慢——是在国家和国际层面加强人工智能监管。
安贾娜·苏萨拉,密歇根州立大学信息系统教授
自从ChatGPT问世以来的一年里,生成式人工智能模型的发展仍在以惊人的速度继续。 与一年前的ChatGPT不同,后者以文本提示作为输入并产生文本输出,新一代生成式人工智能模型被训练成多模态的,这意味着用于训练它们的数据不仅来自维基百科和Reddit等文本来源,还来自YouTube上的视频、Spotify上的歌曲以及其他音频和视觉信息。 借助新一代多模态大型语言模型(LLM)为这些应用程序提供支持,您可以使用文本输入来生成图像和文本,还可以生成音频和视频。
各公司竞相开发可以部署的LLM,使其可以在各种硬件上和各种应用程序中部署,包括在您的智能手机上运行LLM。 这些轻量级LLM和开源LLM的出现可能会迎来一个自主人工智能代理的世界——一个社会不一定为此做好准备的世界。
这些先进的人工智能功能在从商业到精准医疗等应用中提供了巨大的变革力量。 我主要担心的是,如此先进的功能将为区分人类生成的内容和人工智能生成的内容带来新的挑战,并带来新型的算法危害。
生成式人工智能产生的合成内容泛滥可能会释放出一个世界,在这个世界里,恶意的人和机构可以制造合成身份并策划大规模虚假信息。 大量旨在利用算法过滤器和推荐引擎的人工智能生成的内容可能很快就会压倒搜索引擎、社交媒体平台和数字服务提供的信息验证、信息素养和意外发现等关键功能。
联邦贸易委员会已就人工智能辅助内容创作的便利性所带来的欺诈、欺骗、侵犯隐私和其他不正当行为发出警告。 虽然YouTube等数字平台已经制定了政策指南,用于披露人工智能生成的内容,但像联邦贸易委员会这样的机构和致力于隐私保护的立法者(如《美国数据隐私和保护法案》)需要对算法危害进行更严格的审查。
国会中引入了一项新的两党法案,旨在将算法素养编纂为数字素养的关键组成部分。 随着人工智能日益融入人们所做的一切,显然现在是时候将重点从作为技术组成部分的算法转向考虑算法运行的背景:人、过程和社会。
本文最初发表于 The Conversation 。 阅读 原文 。