人们不信任机器人 

人工智能通过欺骗获得更好的合作 

Thomas Fuchs

加入我们的科学爱好者社区!

随着人工智能产品在假装成人方面稳步提高——例如,人工智能生成的声音可以通过电话预订餐厅,或者聊天机器人可以在线回答消费者的问题——人们将越来越频繁地陷入不安的境地,不知道他们是在和机器对话。但事实可能使此类产品的效果降低:最近的研究发现,在人机交互中,透明度和合作之间存在权衡。

这项研究使用了一个简单但细致入微的游戏,在游戏中,成对的玩家做出了一系列同时的决定,是与他们的伙伴合作还是背叛他们。从长远来看,双方都保持合作是有益的——但总是存在背叛的诱惑,以牺牲伙伴的利益为代价来赚取额外的短期积分。研究人员使用了一种人工智能算法,当冒充人类时,该算法实施的策略比人类更擅长让人类伙伴合作。但之前的工作表明,人们倾向于不信任机器,因此科学家们想知道,如果机器人公开自己的身份会发生什么。

该团队希望,与已知的机器人玩游戏的人们会认识到它的合作能力(而不是容易被利用),并最终克服他们的不信任。“可悲的是,我们没有实现这个目标,”阿布扎比纽约大学的计算机科学家、去年11月发表在《自然-机器智能》杂志上的论文的资深作者塔拉勒·拉赫万说。“无论算法做什么,人们都坚持他们的偏见。”与另一个人相比,公开以机器人身份出现的机器人不太可能获得合作,即使它的策略显然对双方都更有利。(在每种模式下,机器人都与至少 150 个人进行了 50 轮游戏。)


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来能够持续发布关于塑造我们当今世界的发现和想法的有影响力的报道。


在另一项实验中,玩家被告知:“数据表明,如果人们将机器人视为人类,他们会过得更好。”但这没有效果。

瑞典于默奥大学社会与伦理人工智能小组负责人弗吉尼亚·迪格纳姆没有参与这项研究,她赞扬研究人员探索了透明度与效力之间的权衡,但她希望看到这项研究在论文的特定设置之外进行测试。

作者表示,在公共领域,应该征求人们是否同意接受关于机器人身份的欺骗。不能在每次互动的基础上进行,否则“欺骗”显然不会奏效。但是,即使可以获得偶尔欺骗的全面许可,仍然会引发伦理困境。迪格纳姆说,人类应该有权在与机器人互动后知情——但如果她打电话给客户服务部只是为了询问一个简单的问题,她补充说,“我只想得到我的答案。”

Matthew Hutson 是一位居住在纽约市的自由科学作家,也是《魔法思维的 7 个定律》的作者。

更多作者:Matthew Hutson
大众科学杂志 第 322 卷 第 2 期本文最初以“信任机器人”为标题发表于大众科学杂志 第 322 卷 第 2 期(),第 18 页
doi:10.1038/scientificamerican0220-18b
© . All rights reserved.