想象一下,你站在电梯里,门开始关闭,突然看到走廊尽头有两个人朝你跑来。甚至在他们喊叫之前,你就能从他们的速度和肢体语言中判断出他们正赶着要坐同一部电梯。作为一个热心的人,你会伸出手按住电梯门。在那一瞬间,你解读了别人的意图并采取行动进行帮助;这些是人工智能机器的设计者只能羡慕的本能行为。但随着研究人员尝试创造具有预测性社交技能的人工智能(AI),以帮助其更好地与人互动,这种情况最终可能会改变。
例如,未来的酒店服务生机器人应该能够根据细微的甚至是无意的暗示来预测酒店客人的需求和意图,而不仅仅是响应一连串的口头命令。西英格兰大学布里斯托尔分校的机器人伦理学教授艾伦·温菲尔德表示,实际上它会“理解”——在无意识的机器能够理解的范围内——周围发生的事情。
温菲尔德希望通过“心智模拟理论”来发展这种理解,这种人工智能方法允许机器人在内部模拟人们、事物和其他机器人的预期需求和行为,并使用结果(结合预先编程的指令)来确定适当的响应。换句话说,这样的机器人会运行一个板载程序,该程序模拟它们自己的行为以及其他物体和人的行为。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您将有助于确保关于当今塑造我们世界的发现和想法的有影响力的故事的未来。
温菲尔德说:“我制造的机器人内部有它们自己和其他机器人的模拟。把模拟放入机器人内部的想法……是一种非常巧妙的方式,可以使其真正预测未来。”
“心智理论”是哲学家和心理学家用来描述通过想象自己处于某事物或某人的位置来预测自己和他人的行为的能力。温菲尔德认为,让机器人做到这一点将有助于它们推断周围代理人的目标和愿望,就像意识到跑步的那对夫妇真的想搭乘那部电梯一样。
这使得温菲尔德的方法与机器学习有所不同,在机器学习中,人工智能系统可以使用例如人工神经网络,该网络可以训练自己以满足用户期望的方式执行所需的操作。一种越来越常见的形式是深度学习,它涉及构建一个大型神经网络,该网络可以在某种程度上自动学习如何解释信息并选择适当的响应。
基于模拟的方法依赖于预先编程的内部模型。温菲尔德将心智模拟理论系统描述为使用“后果引擎”。换句话说,配备该系统的机器人可以回答关于潜在行为的简单“如果……会怎样”的问题。例如,如果它模拟向左转,它可能会检测到它会撞到附近的墙壁。为了使这种预测成为可能,机器人预先编程了基本的物理知识,以便它们了解物体碰撞时会发生什么。温菲尔德将他的机器人描述为具有一点“常识”。
目前,机器人只能在相对简单的情况下使用心智模拟理论。在1月份发表的一篇论文中,温菲尔德和他的同事描述了一个实验,其中一个机器人被设计为在被赋予预测附近其他机器人可能移动的能力后,更安全地(即,不撞到任何东西)沿着走廊移动。这对于机器人来说并不是一项新功能,但在这种情况下,温菲尔德的机器模拟了其自身的避碰策略的后果,以确保它们是安全的。温菲尔德在他的研究中承认,这项工作仍处于起步阶段,“远非一个完整的解决方案”。例如,他的行为猜测机器人穿越走廊的时间比直接到达另一侧而不试图预测另一机器人的行为时的时间长了50%。尽管如此,他提出“基于模拟的内部建模是开发人工心智理论的一个强大而有趣的起点。”
温菲尔德也承认,人们对心智理论的理解仍然不够充分。根据温菲尔德在6月份发表在《机器人与人工智能前沿》上的一项研究,科学家对人类大脑“产生心智理论的神经或认知过程”的了解尚不完整。然而,他认为,要开发能够执行非常相似功能的人工智能,并不需要完全理解这些过程。
温菲尔德说,心智模拟理论的一个主要潜在优势是,它可能有助于机器人与人类进行更多的交流,随着自动化越来越深入地渗透到人类生活中,这一特征将变得越来越重要。例如,有些人可能希望机器人事后解释其行为,这是人工智能通常无法做到的,因为深度学习人工神经网络的内部工作原理非常复杂,可能会使人类很大程度上脱离决策过程。那么,帮助老年人或病人的机器人呢?理想情况下,这样的机器可以自发地向老年人发出警告,宣布它即将靠近,以避免惊慌或困惑。想想护士说:“我只是想给你另一个枕头,这样你就可以坐起来吃药了。” 这就是仅仅行动的机器人和在行动之前为自己的行为辩护的机器人之间的区别。
研究人员正在尝试开发以人类语言解释其决策的机器学习系统。例如,一个基本模型,让一个人工智能程序确定图像是否描绘了一顿健康的饭菜并解释其答案:“否”,因为图像包含热狗;或“是”,因为它检测到蔬菜的存在。但是,这种编程仍处于早期阶段,远非普遍。
卡内基梅隆大学机器人研究所的助理教授亨尼·阿德莫尼没有参与这项新研究,她同意这种能力将很有用。“像模拟理论这样的东西的好处,正如温菲尔德所实现的那样,是该系统可以生成关于它学到了什么或为什么这样做的一个解释,”阿德莫尼说。
加州州立理工大学伦理学和新兴科学小组的研究员朱莉·卡彭特表示,人们会更容易信任能够更准确、更清晰地解释自己的机器。“你必须相信另一个实体和你有着相似的目标,你正在为实现同一个目标而努力,”卡彭特说,她没有参与温菲尔德的研究。
既然温菲尔德已经制造出能够执行由内部模拟确定的简单动作的机器,那么他的下一步是使这些机器人能够口头描述其预期的或过去的行为。一个好的测试是,如果一个机器人能够听取另一个机器人所做的意图声明,并通过模拟这些声明来正确解释这些声明。该过程将涉及一个机器人口头描述一个动作——例如“我要按住电梯门”——而另一个机器人听到此信息后,会在内部模拟该动作及其后果:门保持打开状态。
温菲尔德说,如果他们能够以这种方式相互理解,那么从理论上讲,他们就离理解我们更近了一步——“我对这个实验感到非常兴奋。”