Josiah02 发表于 2024-9-19 16:47:07

人工智能可以帮助我们走出阴谋论的陷阱吗?

《科学》杂志发表的新研究表明,对于一些相信阴谋论的人来说,与人工智能 (AI) 聊天机器人进行基于事实的对话可以“将他们从兔子洞中拉出来”。更好的是,它似乎可以让他们至少在两个月内无法进入。
这项研究由麻省理工学院的托马斯·科斯特洛及其同事开展,为解决一个颇具挑战性的社会问题——对阴谋论的信仰——带来了希望。
有些阴谋论相对无害,比如相信芬兰不存在(这没问题,除非你遇到芬兰人)。但其他理论会降低人们对公共机构和科学的信任。
当阴谋论劝说人们不接种疫苗或不采取行动应对气候变化时,这就成了问题。在最极端的情况下,相信阴谋论与人们的 死亡有关。
阴谋论很“棘手”
尽管阴谋论有负面影响,但事实证明,阴谋论具有很强的“黏性”。一旦人们相信了阴谋论,就很难改变他们的想法。
原因很复杂。阴谋论者的信仰与社区息息相关,阴谋论者往往经过大量调查才得出自己的观点。
当一个人不再信任科学或其社区以外的任何人时,很难改变他们的信念。
进入人工智能
生成式人工智能在公共领域的爆发式增长,增加了人们对相信不真实事物的担忧。人工智能让创建可信的虚假内容变得非常 容易。
即使善意使用,人工智能系统也可能会犯错误。(ChatGPT 和其他聊天机器人甚至会警告用户,它们在某些话题上的判断可能会有误。)
人工智能系统也存在广泛的偏见,这意味着它们可能会助长人们对某些群体的负面看法。
考虑到所有这些,令人颇感惊讶的是,与一个以制造虚假新闻而闻名的系统进行聊天竟然能够说服一些人放弃阴谋论,而且这种改变似乎是持久的。
然而,这项新研究给我们留下了一个好消息/坏消息的问题。
我们发现了一些对阴谋论者信念有影响的东西,这真是太好了!但是,如果人工智能聊天机器人善于说服人们放弃顽固的、反科学的信念,那么这对真正的信念意味着什么呢?
聊天机器人能做什么?
让我们更详细地研究一下这项新研究。研究人员想知道事实论据是否可以用来说服人们反对阴谋论者的信仰。
这项研究涉及两项研究,共有 2,000 多名参与者,在描述他们相信的阴谋论后,他们都与人工智能聊天机器人聊天。所有参与者都被告知他们正在与人工智能聊天机器人交谈。
“治疗”组的人(占所有参与者的 60%)与聊天机器人进行交谈,该聊天机器人根据他们特定的阴谋论进行了个性化设置,并解释了他们相信阴谋论的原因。这个聊天机器人试图通过三轮对话(参与者和聊天机器人轮流说话为一轮)使用事实论据说服这些参与者,让他们相信他们的信念是错误的。另一半参与者与聊天机器人进行了一般性讨论。
研究人员发现,治疗组约有 20% 的参与者在讨论后对阴谋论的信任度有所降低。当研究人员在两个月后对参与者进行检查时,大多数人仍然对阴谋论的信任度有所降低。科学家甚至检查了人工智能聊天机器人是否准确,结果(大多数)都是准确的。
我们可以看到,至少对于某些人来说,与聊天机器人进行三轮对话可以让他们不再相信阴谋论。
所以我们可以用聊天机器人来解决问题吗?
聊天机器人确实在解决错误信念的两个挑战中展现了一些前景。
因为它们是计算机,所以人们不会认为它们有“议程” ,这使得它们所说的话更值得信赖(特别是对那些对公共机构失去信心的人而言)。
聊天机器人还可以提出论点,这比单凭事实更有效。简单地背诵事实对虚假信念的作用微乎其微。
不过,聊天机器人并不是万能的。这项研究表明,聊天机器人对那些没有强烈个人理由相信阴谋论的人更有效,这意味着聊天机器人可能不会帮助那些相信阴谋论的人。
那么我应该使用 ChatGPT 来核实我的事实吗?
这项研究证明了聊天机器人的说服力有多强。当它们准备好说服人们相信事实时,这很棒,但如果它们没有呢?
聊天机器人传播错误信息或阴谋的一个主要方式是,当其底层数据是错误的或有偏见时,聊天机器人会反映这一点。
有些聊天机器人的设计故意反映偏见或增加或限制透明度。你甚至可以与 ChatGPT 的定制版本聊天,以论证地球是平的。
第二个更令人担忧的可能性是,当聊天机器人对有偏见的提示做出反应时(搜索者可能没有意识到有偏见),它们可能会传播错误信息(包括阴谋论)。
我们已经知道,人们不擅长核实事实,当他们使用搜索引擎进行核实时,搜索引擎会对他们的(无意识偏见的)搜索词做出反应,从而强化人们对错误信息的信念。聊天机器人可能也是如此。
归根结底,聊天机器人是一种工具。它们可能有助于揭穿阴谋论——但与任何工具一样,工具制造者和使用者的技能和意图也很重要。阴谋论始于人,也终将终结阴谋论。

页: [1]
查看完整版本: 人工智能可以帮助我们走出阴谋论的陷阱吗?