人工智能聊天机器人即将进入搜索引擎。你信任它们吗?

谷歌、微软和百度正在使用类似于ChatGPT的工具,将互联网搜索转变为对话。这将如何改变人类与机器的关系?

Illustration of little green robot on top of computer

在聊天机器人ChatGPT以其不可思议的能力让世界惊叹,它能像人类一样撰写文章和回答问题几个月后,人工智能(AI)即将进入互联网搜索领域。

世界三大搜索引擎——谷歌、必应和百度——上周表示,它们将把ChatGPT或类似技术整合到其搜索产品中,让人们能够获得直接答案或进行对话,而不是仅仅在输入单词或问题后收到一列链接。这将如何改变人们与搜索引擎的关系?这种人机交互形式存在风险吗?

微软的必应使用了与ChatGPT相同的技术,该技术由加利福尼亚州旧金山的OpenAI开发。但这三家公司都在使用大型语言模型(LLM)。LLM通过模仿在大型数据库中遇到的文本的统计模式来创建令人信服的句子。谷歌的人工智能驱动搜索引擎Bard于2月6日发布,目前正在一小群测试人员中使用。微软的版本现在已广泛可用,尽管获得无限制访问权限需要等待。百度的文心一言将于3月推出。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保未来能够继续讲述关于塑造我们当今世界的发现和想法的具有影响力的故事。


在这些公告之前,一些较小的公司已经发布了人工智能驱动的搜索引擎。“搜索引擎正在演变成一种新状态,您实际上可以开始与它们交谈,像与朋友交谈一样与它们对话,”旧金山的计算机科学家阿拉温德·斯里尼瓦斯说,他于去年八月与人共同创立了Perplexity——一个基于LLM的搜索引擎,以对话式的英语提供答案。

信任的转变

与传统的互联网搜索相比,对话的强烈个人性质可能有助于改变对搜索结果的看法。苏黎世大学的计算社会科学家亚历山德拉·乌尔曼表示,人们可能天生更信任与他们进行对话的聊天机器人的答案,而不是来自冷冰冰的搜索引擎的答案。

佛罗里达大学盖恩斯维尔分校的一个团队进行的一项2022年研究1发现,对于与亚马逊和百思买等公司使用的聊天机器人互动的参与者来说,他们感知到的对话越像人类,他们就越信任该组织。

这可能是有益的,使搜索更快更流畅。但信任感的增强可能会带来问题,因为人工智能聊天机器人会犯错。谷歌的Bard在其技术演示中在关于詹姆斯·韦伯太空望远镜的问题上犯了一个错误,自信地给出了错误的答案。而ChatGPT有一种倾向,即对其不知道答案的问题创造虚构的答案——业内人士称之为“幻觉”。

谷歌发言人表示,Bard的错误“突显了严格测试过程的重要性,我们本周将通过我们的可信测试人员计划启动这项工作”。但一些人推测,这种错误如果被发现,可能会导致用户对基于聊天的搜索失去信心,而不是增加信任。“早期的认知可能会产生非常大的影响,”位于加利福尼亚州山景城的计算机科学家、一月份推出的LLM驱动搜索引擎Neeva的首席执行官斯里达尔·拉马斯瓦米说。这个错误使谷歌市值蒸发了1000亿美元,因为投资者担心未来并抛售股票。

缺乏透明度

使不准确问题更加复杂的是相对缺乏透明度。通常,搜索引擎会向用户展示其来源——一系列链接——并让他们自己决定信任什么。相比之下,人们很少知道LLM的训练数据是什么——是《大英百科全书》还是八卦博客?

“人工智能驱动的搜索将如何工作是完全不透明的,如果语言模型出错、产生幻觉或传播错误信息,可能会产生重大影响,”乌尔曼说。

乌尔曼说,如果搜索机器人犯了足够多的错误,那么它们有可能削弱用户对搜索引擎作为真理公正仲裁者的认知,而不是通过其对话能力来增强信任。

她进行了一项尚未发表的研究,表明目前的信任度很高。她研究了人们如何看待谷歌用来增强搜索体验的现有功能,称为“精选摘要”,其中从一个被认为与搜索特别相关的页面中提取的片段出现在链接上方,以及“知识面板”——谷歌自动生成的摘要,以回应关于例如某人或组织的搜索。乌尔曼调查的人中,几乎80%的人认为这些功能是准确的,约70%的人认为它们是客观的。

巴黎数据科学平台Hugging Face的首席伦理学家吉亚达·皮斯蒂利表示,聊天机器人驱动的搜索模糊了机器和人类之间的区别,该平台提倡负责任地使用人工智能。她担心公司采用人工智能进步的速度过快:“我们总是被抛出这些新技术,没有任何控制或教育框架来了解如何使用它们。”

本文经许可转载,并于2023年2月13日首次发表

© . All rights reserved.