人工智能能让我们走出阴谋论的兔子洞吗?

2024-09-17 07:20来源:本站编辑

conspiracy

发表在《科学》杂志上的一项新研究表明,对于一些相信阴谋论的人来说,与人工智能(AI)聊天机器人进行一次基于事实的对话可以“把他们从兔子洞里拉出来”。更好的是,它似乎能让它们至少呆上两个月。

这项由麻省理工学院的托马斯·科斯特洛及其同事进行的研究,为解决一个具有挑战性的社会问题——对阴谋论的信仰——带来了希望。

有些阴谋论相对无害,比如认为芬兰不存在(这很好,直到你遇到芬兰人)。然而,其他理论则降低了人们对公共机构和科学的信任。

当阴谋论说服人们不接种疫苗或不采取行动应对气候变化时,这就成了一个问题。在最极端的情况下,对阴谋论的信仰与人们的死亡有关。

有限公司激励理论是“粘性的”

尽管阴谋论有负面影响,但事实证明,它们非常“粘人”,一旦人们相信阴谋论,就很难改变他们的想法。

原因很复杂。阴谋论者的信仰与社区有关,阴谋论者经常做大量的研究来达到他们的立场。

当一个人不再相信科学或社区外的任何人时,很难改变他们的信仰。

进入人工智能

生成式人工智能在公共领域的爆炸式增长,增加了人们对相信不真实事物的担忧。人工智能让创造可信的虚假内容变得非常容易。

即使出于善意使用,人工智能系统也可能会搞错事实。(ChatGPT和其他聊天机器人甚至会警告用户,他们对某些话题的看法可能是错误的。)

人工智能系统也包含广泛的偏见,这意味着它们可能会促进对某些群体的负面看法。

考虑到这一切,与一个已知制造假新闻的系统聊天可以说服一些人放弃阴谋论,这是相当令人惊讶的,而且这种变化似乎是持久的。

然而,这项新研究给我们带来了一个好消息/坏消息的问题。

我们发现了一些对阴谋论者的信仰有影响的东西,这太棒了!但是,如果人工智能聊天机器人善于说服人们摆脱顽固的、反科学的信仰,那么这对真正的信仰意味着什么呢?

聊天机器人能做什么?

让我们更详细地研究一下这项新研究。研究人员很想知道事实论证是否可以用来说服人们反对阴谋论者的信仰。

这项研究在两项研究中使用了2000多名参与者,他们都在描述了一个他们相信的阴谋论后与人工智能聊天机器人聊天。所有参与者都被告知他们正在与一个人工智能聊天机器人交谈。

“治疗”组的人(占所有参与者的60%)与一个聊天机器人交谈,这个聊天机器人根据他们的特定阴谋论以及他们相信这个阴谋论的原因进行了个性化设置。这个聊天机器人试图通过三轮对话(参与者和聊天机器人轮流谈话是一轮)中的事实论证来说服这些参与者他们的信念是错误的。另一半参与者与聊天机器人进行一般性讨论。

研究人员发现,治疗组中约有20%的参与者在讨论后对阴谋论的信任度降低了。两个月后,当研究人员对参与者进行检查时,大多数人仍然表现出对阴谋论的不信任感。科学家们甚至检查了人工智能聊天机器人是否准确,结果(大部分)是准确的。

我们可以看到,至少对一些人来说,与聊天机器人进行三轮对话可以说服他们反对阴谋论。

所以我们可以用聊天机器人解决问题?

在解决错误信念方面,聊天机器人确实带来了一些希望。

因为它们是计算机,它们不被认为有“议程”,这使得它们所说的更值得信赖(尤其是对那些对公共机构失去信心的人)。

聊天机器人还可以组织一个论点,这比只有事实要好。简单地复述事实对对抗虚假信念的作用微乎其微。

不过,聊天机器人并不是万灵药。这项研究表明,它们对那些没有强烈个人理由相信阴谋论的人更有效,这意味着它们可能不会帮助那些认为阴谋论是社区的人。

那么我应该使用ChatGPT来检查我的事实吗?

这项研究证明了聊天机器人是多么有说服力。当他们准备好让人们相信事实时,这很好,但如果他们没有呢?

聊天机器人传播错误信息或阴谋的一个主要方式是,它们的基础数据是错误的或有偏见的:聊天机器人会反映出这一点。

一些聊天机器人被设计成故意反映偏见或增加或限制透明度。您甚至可以与ChatGPT的定制版本聊天,以争辩地球是平的。

第二种更令人担忧的可能性是,当聊天机器人对有偏见的提示(搜索者可能没有意识到有偏见)做出反应时,它们可能会使错误信息(包括阴谋论)永续存在。

我们已经知道,人们不擅长核实事实,当他们使用搜索引擎这样做时,这些搜索引擎会对他们(无意中有偏见的)搜索条件做出回应,从而强化人们对错误信息的信念。聊天机器人很可能也是如此。

归根结底,聊天机器人是一种工具。它们可能有助于揭穿阴谋论,但就像任何工具一样,工具制造者和使用者的技能和意图很重要。阴谋论从人开始,也将由人来终结。

本文转载自The Co在知识共享许可下的对话。阅读原文。The Conversation

爱问网声明:未经许可,不得转载。