在线实验表明人们更喜欢人工智能来做出重新分配决策
一项新研究表明,在重新分配决策方面,人们更喜欢人工智能(AI)而不是人类。随着技术不断融入公共和私人决策的各个方面,了解公众的认知和满意度并确保算法的透明度和可问责性将成为算法被接受和有效性的关键。
这项研究由朴茨茅斯大学和马克斯·普朗克创新与竞争研究所的研究人员进行,调查了公众对算法决策与人类决策的态度,并研究了潜在歧视对这些偏好的影响。这项研究发表在《公共选择》杂志上。
一项在线决策实验被用来研究人们更喜欢由人类还是人工智能来做决策,在完成一系列任务后,两个人的收入可以在他们之间重新分配。来自英国和德国的 200 多名参与者被要求投票决定他们希望由人类还是算法(人工智能)来做决定,以决定他们能赚多少钱。
与之前的研究结果相反,超过 60% 的参与者选择让人工智能而不是人类来决定如何重新分配收入。参与者偏爱算法,而不考虑潜在的歧视。这种偏好挑战了传统观念,即在涉及公平等“道德”因素的决策中,人类决策者更受青睐。
然而,尽管人们偏爱算法,但在对所做的决定进行评分时,参与者对人工智能的决定不太满意,并认为它不如人类的决定“公平”。
决策的主观评价主要由参与者自身的物质利益和公平理念决定。参与者可以容忍实际决策和他们的理想之间的任何合理偏差,但对与任何既定公平原则不一致的再分配决策反应非常强烈和消极。
朴茨茅斯大学会计、经济与金融学院行为经济学副教授、该研究的通讯作者沃尔夫冈·卢汉博士表示:“我们的研究表明,尽管人们对算法决策者的想法持开放态度,尤其是因为他们有做出公正决策的潜力,但算法的实际表现和解释其决策方式的能力在接受度方面起着至关重要的作用。特别是在道德决策环境中,算法的透明度和可追溯性至关重要。
“许多公司已经在使用人工智能进行招聘决策和薪酬规划,公共机构也在警务和假释策略中使用人工智能。我们的研究结果表明,随着算法一致性的提高,公众可能会越来越多地支持算法决策者,即使在道德意义重大的领域也是如此。
“如果采取正确的人工智能方法,这实际上可以提高政策和管理选择(如加薪或奖金支付)的接受度。”
页:
[1]