参考消息网2月17日报道英国《自然》周刊网站2月13日发表题为《人工智能聊天机器人走入搜索引擎——你能相信这些结果吗?》的文章,作者是克里斯·斯托克尔-沃克,文章编译如下:

在聊天机器人ChatGPT以其惊人的像人类一样写作和回答问题的能力令世界惊叹数月后,人工智能正在走入互联网搜索领域。

全球三大搜索引擎——谷歌、必应和百度——上周表示,它们将把ChatGPT或类似的人工智能技术整合到自己的搜索产品中,让人们能够直接获得答案或参与对话,而不仅仅是在输入单词或问题后收到一长串网页链接。这将如何改变人们与搜索引擎之间的关系?这种人机互动形式是否存在风险?

微软公司的搜索引擎必应使用的技术与ChatGPT相同,后者是由加利福尼亚州旧金山的开放人工智能研究中心开发的。但这三家公司都在使用大型语言模型(LLM)。LLM通过呼应它们在大型数据库中遇到的文本的统计模式来创造令人信服的句子。谷歌于2月6日宣布的人工智能搜索引擎“巴德”目前正由一小群测试人员使用。微软的版本现已广泛推出,尽管在不受限的访问方面仍需等待。百度将于3月份推出“文心一言”人工智能聊天机器人。

在三大搜索引擎宣布这些消息之前,一些规模较小的公司已经发布了人工智能搜索引擎。驻旧金山的计算机科学家阿拉温德·斯里尼瓦斯去年8月与他人共同创立了“困惑”人工智能公司——这是一个基于LLM的智能搜索引擎,能用英语会话和回答问题。斯里尼瓦斯说:“搜索引擎的发展正在进入一个新阶段,你可以真正开始与它们对话,就像你跟朋友交谈那样。”

与传统的互联网搜索相比,这种人机对话带有更强的私密性,这可能有助于改变人们对搜索结果的看法。瑞士苏黎世大学的计算社会科学家亚历山德拉·乌尔曼说,与独立的搜索引擎相比,人们可能天生就会更相信与他们对话的聊天机器人给出的答案。

位于盖恩斯维尔的佛罗里达大学一个研究团队在2022年发现,对那些与亚马逊和百思买等公司使用的聊天机器人进行互动的参与者来说,对话越像人类之间的互动,他们就越信任该公司。

这可能是有益的,它能使搜索变得更快更顺畅。但鉴于人工智能聊天机器人也会犯错,这种信任感的增强可能会带来问题。谷歌的“巴德”聊天机器人在技术演示中对有关詹姆斯·韦布空间望远镜的问题给出了错误的回答。就ChatGPT而言,对于它不知道答案的问题,它有一种创造虚构答案的倾向——有些人称之为“幻觉”。

谷歌的一位发言人说,聊天机器人“巴德”的错误“凸显了严格测试流程的重要性,本周谷歌将通过我们值得信赖的测试计划启动这项工作”。但一些人认为,这样的错误——假设它们被发现了——非但没有增强使用者的信任,反而可能导致用户对基于聊天的互联网搜索失去信心。驻加利福尼亚州芒廷维尤的计算机科学家、搜索引擎Neeva的首席执行官斯里达尔·拉马斯瓦米说:“早期认知会产生非常大的影响。”Neeva是一个由LLM驱动的搜索引擎,于1月份推出。由于投资者对未来感到担忧并抛售股票,“巴德”的这个错误使谷歌市值蒸发了1000亿美元。

令答案不准确问题雪上加霜的是人工智能搜索相对缺乏透明度。通常情况下,搜索引擎会向用户展示其来源——一长串网页链接——并让他们自行决定该相信哪些内容。相比之下,很少有人知道LLM是根据什么数据进行训练的——是《不列颠百科全书》还是八卦博客?

乌尔曼说:“(人工智能驱动的搜索)如何运作完全不透明,如果语言模型出现失误、制造幻觉或传播错误信息,那可能会产生非常大的影响。”

乌尔曼说,如果搜索机器人犯了足够多的错误,那么它们非但不会凭借其对话能力增加用户的信任,反而有可能颠覆用户对搜索引擎的看法,认为它们不再是公正的真相仲裁者。

她进行的一项尚未公开发表的研究显示,目前用户对搜索引擎的信任度很高。她研究了人们如何看待谷歌用来增强搜索体验的现有功能,即所谓的“精选摘要”(被认为与搜索特别相关的页面摘要出现在链接上方)和“知识面板”(谷歌在回应关于某人或某组织的搜索时自动生成摘要)。乌尔曼的调查发现,近80%的受访者认为这些功能是准确的,大约70%的受访者认为它们是客观公正的。

数据科学平台抱抱脸公司的首席伦理学家吉娅达·皮斯蒂利说,由聊天机器人驱动的搜索模糊了机器与人类之间的区别。该公司倡导负责任地使用人工智能技术。她对企业如此迅速地采用人工智能技术感到担忧。皮斯蒂利说:“我们总是在没有任何控制或没有相应的教育框架来了解该如何使用这些技术的情况下抛出这些新技术。”

 

 

来源:网易号-参考消息

https://www.163.com/dy/article/HTPV788U0514BQ68.html

配图:pixabay