当人工智能误判并非意外

有意偏见是人工智能可能伤害我们的另一种方式

加入我们的科学爱好者社区!

本文发表于《大众科学》的前博客网络,反映了作者的观点,不一定代表《大众科学》的观点


关于人工智能中无意识偏见的讨论通常集中在那些无意中对整个社会群体造成不成比例伤害的算法上——例如,错误地预测黑人被告会犯下未来罪行的算法,或者主要通过使用白人男性照片开发的、在识别女性和肤色较深的人方面表现不佳的面部识别技术。

但问题可能比这更深层。社会应该警惕另一种转折:恶意行为者可能试图通过故意将偏见引入人工智能系统来攻击它们,这些偏见被偷偷地藏在帮助这些系统学习的数据中。这可能会为网络攻击、虚假信息宣传活动或假新闻的扩散引入一个令人担忧的新维度。

根据美国政府关于大数据和隐私的研究,有偏见的算法可能更容易掩盖歧视性的贷款、招聘或其他不正当的商业行为。算法可能被设计为利用看似无害但可能具有歧视性的因素。采用现有技术,但使用有偏见的数据或算法,可能会更容易隐藏不良意图。商业数据经纪人收集并保存各种信息,例如在线浏览或购物习惯,这些信息可能以这种方式被使用。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和思想的有影响力的故事的未来。


有偏见的数据也可能充当诱饵。公司可能会发布有偏见的数据,希望竞争对手会使用它来训练人工智能算法,从而导致竞争对手降低其自身产品的质量以及消费者对它们的信心。

算法偏见攻击也可能被用来更容易地推进意识形态议程。如果仇恨团体或政治倡导组织想要基于种族、性别、宗教或其他特征来针对或排斥人们,有偏见的算法可以为他们提供理由或更先进的手段来直接这样做。有偏见的数据也可能在划分选区的工作中发挥作用,从而巩固种族隔离(“红线”)或限制投票权。

最后,来自外国行为者的国家安全威胁可能会利用故意的偏见攻击来破坏社会稳定,通过削弱政府合法性或加剧公众两极分化。这将自然而然地符合据报道旨在利用意识形态分歧的策略,即创建社交媒体帖子和购买在线广告以煽动种族紧张关系。

将故意的偏见注入算法决策可能非常简单有效。这可能涉及复制或加速产生偏见的现有因素。许多算法已经被输入了有偏见的数据。攻击者可以继续使用这些数据集来训练算法,并且预先知道其中包含的偏见。这将实现的合理推诿是这些攻击如此阴险和可能有效的原因。攻击者将乘着对科技行业偏见的关注浪潮,加剧围绕多样性和包容性问题的两极分化。

通过篡改训练数据来“毒害”算法的想法并非完全新颖。美国高级情报官员警告说,网络攻击者可能会秘密访问然后更改数据以损害其完整性。证明恶意意图将是解决问题和因此威慑的重要挑战。

但动机可能无关紧要。任何偏见都是一个问题,是社会基础设施完整性的结构性缺陷。政府、公司和个人越来越多地以可能引入偏见的各种方式收集和使用数据。

这表明偏见是一个系统性挑战——一个需要整体解决方案的挑战。针对人工智能中无意偏见的拟议解决方案旨在促进员工队伍多元化、扩大对多样化训练数据的访问,并建立算法透明度(了解算法如何产生结果的能力)。

在实施这些想法方面已经取得了一些进展。学者行业观察家呼吁立法监督,以解决技术偏见问题。科技公司已承诺通过使其员工队伍多元化和提供无意识偏见培训来消除其产品中的无意识偏见。

与整个历史的技术进步一样,我们必须继续审查我们如何在社会中实施算法以及它们产生的结果。识别和解决开发算法的人员以及用于训练算法的数据中的偏见,将大大有助于确保人工智能系统造福我们所有人,而不仅仅是那些想要利用它们的人。

© . All rights reserved.