
以下文章经许可转载自 The Conversation,这是一份报道最新研究的在线出版物。
人工智能已经可以预测未来。警察部队正在使用它来绘制 犯罪可能发生的地点和时间。医生可以使用它来预测病人最有可能在何时 心脏病发作或中风。研究人员甚至试图 赋予人工智能想象力 ,以便它可以为意想不到的后果做好计划。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来能够继续产出关于塑造我们今天世界的发现和想法的具有影响力的报道。
我们生活中的许多决定都需要良好的预测,而人工智能代理几乎总是比人类同行更擅长预测。然而,尽管有这些技术进步,我们似乎仍然 非常缺乏对人工智能预测的信心。 最近的案例 表明,人们不喜欢依赖人工智能,而更喜欢信任人类专家,即使这些专家是错误的。
如果我们想让人工智能真正造福于人类,我们需要找到一种方法让人们信任它。要做到这一点,我们需要了解人们起初为什么如此不愿信任人工智能。
您应该信任机器人医生吗?
IBM推广其 超级计算机癌症治疗程序 (Watson for Oncology)的尝试是一场公关灾难。人工智能承诺为占世界病例 80% 的 12 种癌症提供最高质量的治疗建议。截至今日, 全球已有超过 14,000 名患者 接受了基于其计算的建议。
但是当 医生首次与沃森互动时 ,他们发现自己处于相当困难的境地。一方面,如果沃森提供的治疗指导与他们自己的意见一致,医生们并没有看到沃森的建议有多大价值。这台超级计算机只是在告诉他们他们已经知道的事情,而这些建议并没有改变实际的治疗方案。这可能让医生们感到安心,让他们对自己做出的决定更有信心。但 IBM 尚未提供 沃森实际上提高了癌症生存率的证据。
另一方面,如果沃森提出的建议与专家的意见相矛盾,医生通常会认为沃森不称职。而且这台机器无法解释为什么它的治疗方案是合理的,因为它的机器学习算法 过于复杂 ,人类无法完全理解。因此,这甚至导致了 更多的不信任和怀疑,导致许多医生忽视看似古怪的人工智能建议,而坚持自己的专业知识。
结果,IBM 沃森的首要医疗合作伙伴 MD 安德森癌症中心最近宣布,它将 放弃该计划。同样,据报道,一家丹麦医院在发现其癌症医生在三分之二以上的病例中不同意沃森的意见后, 放弃了人工智能程序。
沃森肿瘤学的问题在于医生根本不信任它。人类的信任通常基于我们对他人思维方式的理解以及对他们可靠性的经验。这有助于创造一种 心理上的安全感。另一方面,人工智能对大多数人来说仍然是相当新颖和陌生的。它使用复杂的分析系统来识别大量数据中可能隐藏的模式和 微弱信号 来做出决策。
即使它可以 在技术上得到解释 (而且情况并非总是如此),人工智能的决策过程通常 对大多数人来说都太难理解。与我们不理解的事物互动会 引起焦虑 ,并让我们感觉好像失去了控制。许多人也根本不熟悉人工智能实际工作的许多实例,因为它通常发生在后台。
相反,他们敏锐地意识到人工智能出错的实例:一个 谷歌算法 将有色人种归类为大猩猩;一个 微软聊天机器人 在不到一天的时间内决定成为白人至上主义者;一辆 在自动驾驶模式下运行的特斯拉汽车 导致了致命事故。这些不幸的例子受到了媒体过多的关注,强调了我们不能依赖技术的观点。机器学习并非万无一失,部分原因是设计它的人类并非如此。
社会中新的人工智能鸿沟?
对人工智能的感受也很深刻。我和我的同事最近进行了一项实验,我们让来自不同背景的人观看各种关于人工智能的科幻电影,然后询问他们关于日常生活中自动化的问题。我们发现,无论他们观看的电影将人工智能描绘成正面还是负面,仅仅观看我们技术未来的电影愿景就使参与者的态度两极分化。乐观主义者对人工智能的热情更加极端,而怀疑论者则变得更加谨慎。
这表明人们以有偏见的方式使用关于人工智能的相关证据来支持他们现有的态度,这是一种根深蒂固的人类倾向,被称为 确认偏差。随着媒体越来越多地报道和呈现人工智能,它可能会导致 社会严重分裂,一部分人受益于人工智能,另一部分人拒绝人工智能。更重要的是,拒绝接受人工智能提供的优势可能会使一大群人处于严重劣势。
走出人工智能信任危机的三种方法
幸运的是,我们已经有一些关于如何提高对人工智能信任的想法。正如我们在研究中发现的那样,仅仅拥有之前使用人工智能的经验就可以显着改善人们对该技术的态度。 类似的证据 也表明,您使用互联网等其他技术越多,您就越信任它们。
另一种解决方案可能是打开机器学习算法的“黑匣子”,并更透明地说明它们的工作原理。诸如 谷歌、 爱彼迎 和 推特 等公司已经发布了关于政府请求和监控披露的透明度报告。人工智能系统的类似做法可以帮助人们更好地了解算法决策是如何做出的。
研究表明,让人们更多地参与人工智能决策过程也可以提高信任度,并让人工智能从人类经验中学习。例如,一项研究 表明,人们被赋予稍微修改算法的自由,会对算法的决策感到更满意,更倾向于相信它更优越,并且更可能在未来使用它。
我们不需要理解人工智能系统错综复杂的内部运作,但如果人们至少获得一些关于人工智能系统如何实施的信息和控制权,他们将更愿意接受人工智能进入他们的生活。
本文最初发表于 The Conversation。阅读 原文。