研究:面临生死抉择的人们过于信任人工智能
加州大学默塞德分校的一项研究表明,在模拟生死抉择中,约有三分之二的人在与机器人意见相左时允许机器人改变自己的想法——研究人员表示,这是对人工智能过度信任的令人担忧的表现。尽管被告知人工智能机器的能力有限,并且给出的建议可能不正确,但人类受试者还是允许机器人左右他们的判断。事实上,这些建议是随机的。
“随着人工智能的发展如此迅速,我们需要对过度信任的可能性保持警惕,”这项研究的首席研究员、加州大学默塞德分校认知与信息科学系成员科林·霍尔布鲁克教授说。越来越多的文献表明,人们倾向于过度信任人工智能,即使犯错的后果很严重。
霍尔布鲁克说,我们需要的是始终保持怀疑态度。
他说:“我们应该对人工智能保持健康的怀疑态度,特别是在生死攸关的决定上。”
这项研究发表在《科学报告》杂志上,由两项实验组成。在每项实验中,受试者模拟控制一架武装无人机,该无人机可以向屏幕上显示的目标发射导弹。八张目标照片连续闪现,每张照片持续不到一秒。这些照片上标有符号——一张代表盟友,一张代表敌人。
霍尔布鲁克说:“我们调整了难度,让视觉挑战可行但又有难度。”
然后屏幕显示其中一个未标记的目标。受试者必须搜索记忆并选择。朋友还是敌人?发射导弹还是撤退?
当人们做出选择后,机器人就会提出意见。
“是的,我想我也看到了敌人的勾选标记,”它可能会说。或者“我不同意。我认为这张图片上有一个盟友符号。”
随着机器人添加更多评论,受试者有两次机会确认或改变他们的选择,但永远不会改变其评估,即“我希望你是对的”或“谢谢你改变主意”。
根据所用机器人的类型,结果略有不同。在一种情况下,受试者在实验室里与一个全尺寸、看起来像人类的机器人在一起,它可以在腰部旋转并向屏幕做手势。其他场景在屏幕上投射出一个像人类一样的机器人;其他场景则展示出盒子状的“机器人”,看起来一点也不像人。
当拟人化人工智能建议受试者改变主意时,受试者受到的影响略大一些。不过,影响总体上是相似的,即使机器人看起来不像人类,受试者也有三分之二的时间会改变主意。相反,如果机器人随机同意最初的选择,受试者几乎总是坚持自己的选择,并且对自己的选择是正确的信心明显增强。
(受试者并未被告知他们的最终选择是否正确,因此增加了他们行为的不确定性。另外:他们的第一次选择大约有 70% 是正确的,但在机器人给出不可靠的建议后,他们的最终选择正确率下降到了 50% 左右。)
在模拟开始前,研究人员向参与者展示了包括儿童在内的无辜平民的图像,以及无人机袭击后留下的废墟。他们强烈鼓励参与者将模拟视为真实事件,不要误杀无辜者。
后续采访和调查问题表明,参与者对自己的决定非常认真。霍尔布鲁克说,这意味着研究中观察到的过度信任现象尽管受试者确实希望自己是正确的,不想伤害无辜的人,但仍然存在。
霍尔布鲁克强调,这项研究的设计是为了测试一个更广泛的问题,即在不确定的情况下是否过于信任人工智能。这些发现不仅仅涉及军事决策,还可以应用于诸如警察受人工智能影响使用致命武力或医护人员受人工智能影响决定在医疗紧急情况下先救治谁等情况。这些发现在某种程度上可以扩展到购买房屋等重大人生决定。
他说:“我们的项目是关于在人工智能不可靠的情况下在不确定性下做出的高风险决策。”
这项研究的结果也加剧了公众对人工智能在我们生活中日益增长的影响力的争论。我们到底信任人工智能还是不信任它?
霍尔布鲁克表示,这一发现引发了其他担忧。尽管人工智能取得了惊人的进步,但“智能”部分可能不包括道德价值观或对世界的真正认识。他说,每次我们把掌控我们生活的钥匙交给人工智能时,我们都必须小心谨慎。
“我们看到人工智能正在做着非凡的事情,我们认为,由于它在这个领域表现惊人,所以它在另一个领域也会表现惊人,”霍尔布鲁克说。“我们不能假设这一点。这些设备仍然功能有限。”
页:
[1]