如果你曾发现自己对ChatGPT说“请”和“谢谢”,那你并不孤单。宾夕法尼亚大学副教授伊森·莫里克进行了一项非正式的在线调查,结果显示,近一半的受访者表示他们经常对人工智能聊天机器人保持礼貌,只有约16%的人表示他们“只是下命令”。在ChatGPT的创建公司OpenAI主办的论坛上,开发人员的评论也反映了这种趋势:“我发现自己在使用[ChatGPT]时会用‘请’和‘谢谢’,因为我也会这样和帮助我的真人说话,”一位用户写道。
乍一看,这可能有点令人费解。为什么要对一台没有感情的机器友善呢?在ChatGPT出现之前,我们大多数人在与自动化系统互动时,通常不会考虑自己的语气。(例如,如果你听到有人对银行的客户服务机器人代表点头哈腰,你可能会对这个人敬而远之。)但最近人工智能聊天机器人的复杂性——包括ChatGPT、Claude、Gemini等——标志着人机交互的重大飞跃:它们以听起来自然的方式进行交流的能力,有时还带有类似人声的声音,使它们看起来不那么像冷冰冰、精于算计的机器,而更像是有意识的实体。而且,这些聊天机器人正日益融入日常生活的方方面面。今年6月,苹果公司宣布与OpenAI建立新的合作伙伴关系,将ChatGPT与Siri和其他设备功能集成。不管你喜不喜欢,与对话式AI互动可能很快就会像查看电子邮件一样成为例行公事。因此,关于我们如何与AI互动的Questions比以往任何时候都更加紧迫。
自从ChatGPT发布以来,一个典型的玩笑是这样的:对聊天机器人好一点,否则在不可避免的AI起义中你就会完蛋。“如果你在与ChatGPT对话时不说‘请’和‘谢谢’,那你显然没看过科幻电影,”一位用户在2022年12月在X(前身为Twitter)上发帖说。但抛开所有的玩笑(和焦虑)不谈,我们应该对AI保持礼貌有什么合理的理由吗?
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保关于塑造我们今天世界的发现和想法的具有影响力的故事的未来。
答案是肯定的,至少根据最近由东京早稻田大学和理化学研究所先进智能项目中心的一个团队在预印本服务器arXiv.org上发布的一项研究显示。作者发现,使用礼貌的提示可以从大型语言模型(LLM)——为AI聊天机器人提供动力的技术——中产生更高质量的回复。但存在收益递减点;根据该论文,过度的奉承会导致模型的性能下降。最终,作者建议使用“适度礼貌”的提示,这与大多数人类社交互动中的规范没有太大区别。“LLM在一定程度上反映了人类渴望被尊重的愿望,”他们写道。
支持性提示,例如“深呼吸,逐步解决这个问题”,可以提高LLM解决小学数学问题的能力
内森·博斯是约翰·霍普金斯大学研究人类与AI之间关系模式的高级研究员——他与最近的预印本研究无关——他经常对聊天机器人使用“请”,“因为这是一个良好的提示习惯,”他说。“‘请’表示接下来的是一个请求,使LLM更容易知道如何回应。”(博斯还说“谢谢你”,他认为这归功于他良好的密歇根州教养。)
博斯补充说,提示的语气也可能导致LLM在制定回复时从语言相关的回复中提取信息;换句话说,AI会反馈你输入的内容。礼貌的提示可能会引导系统从更礼貌、因此可能更可信的互联网角落检索信息。一个讽刺的提示可能会产生相反的效果,引导系统寻找Reddit上的论点。“LLM可能会在训练中捕捉到这一点,甚至无需注册‘积极性’或‘消极性’的概念,并给出更好或更详细的回复,因为它们与积极的语言相关联,”博斯解释说。
一位有耐心的老师可能对挣扎的学生表现出的那种微小的支持也可能影响聊天机器人的表现。谷歌DeepMind的一组研究人员去年发布的一篇预印本论文发现,支持性提示,例如“深呼吸,逐步解决这个问题”,可以提高LLM解决需要基本推理能力的小学数学问题的能力。同样,这种解释可以追溯到模型的训练数据:这种语言可能会触发系统参考在线辅导资源,这些资源通常鼓励学生将问题分解成几个部分——从而导致算法也这样做。
那么,似乎对AI保持礼貌确实可以提高其技术性能。但像所有交流一样,与聊天机器人的交流是双向的。当我们训练AI以某种方式表现时,这些互动也可能在训练我们。根据这种观点,我们应该对AI助手保持礼貌的真正原因是,它可以简单地帮助我们保持对人类同胞文明礼貌的习惯。
对AI的礼貌是“一种尊重的标志”——不是对机器,而是对自己,雪莉·特克尔说,她是一位临床心理学家,也是麻省理工学院技术与自我倡议的创始主任。“这关乎你,”她说。她认为,危险在于我们可能会习惯于对AI使用粗鲁、不尊重和专横的语言,然后不知不觉地以同样的方式对待其他人。世界可能已经瞥见了这种麻木不仁的现象:近年来,一些家长开始抱怨他们的孩子,习惯于对Siri和Alexa等自动化虚拟助手大声发号施令,变得越来越不尊重人。2018年,谷歌试图通过为Google Assistant引入一项名为“Pretty Please”的功能来补救这种情况,以此鼓励孩子们在提出请求时使用礼貌的语言。“我们必须保护自己,”特克尔说,“因为我们才是需要与真人建立关系的人。”
西方密歇根大学传播学教授、人机交互专家奥特姆·P·爱德华兹说,随着AI日益稳定地渗入我们的日常生活,我们与AI的互动将影响人类社会规范的演变。“这是一个时刻,我们可以完全适应基于命令和机器式的互动,并改变在广泛意义上进行人类交流的意义,”她说,“或者我们可以保留[我们的人性],并尝试将人类交流的最佳方面融入我们与这些实体的对话中。”
爱德华兹还指出,公司有时会聘请真人冒充聊天机器人,因为如果人们相信他们是在与AI而不是活生生的工作人员互动,那么客户对服务质量的期望可能会降低,这可能会减少对企业时间和责任的要求。“那些人报告说,他们因人们对他们说的那种话而遭受了一些非常可怕的心理影响,”她说。“我们认为我们是在对一个系统发泄谩骂……而没有意识到另一端可能有人必须看到它。”
生成式AI的进步正以惊人的速度发生。OpenAI在5月份发布的GPT-4o可以用各种听起来非常像人类的自动化声音进行交流。(OpenAI的代表拒绝就本文接受采访。)与此同时,AI生成的视频的创新使得一些聊天机器人很可能很快就会配备虚拟的、极具表现力的面孔,将我们进一步推向恐怖谷的远端。特克尔称之为我们的“达尔文按钮”——将能动性归因于任何看起来像人类的事物的进化冲动——即将比以往任何时候都更加巧妙地被操纵。科技公司有明显的经济动机来推动这种进步。对个人和社会的心理后果还有待观察。然而,就目前而言,对AI聊天机器人表现出一些文明礼貌似乎是值得的——为了您自己以及您周围人的福祉。