你会同情机器人吗?研究表明你可以
微弱的扬声器发出的可怜声音、悲伤的虚拟眼睛、颤抖的机器人手臂:对机器人感到同情并不需要太多。这是 Marieke Wieringa 的一项研究得出的结论,她将于 11 月 5 日在拉德堡德大学进行博士论文答辩。但她警告说,我们的人类同情心也可能被利用;只要等到公司找到机器人情感操纵的收入模式,就会发现这一点。客观地说,我们知道机器人无法感受到痛苦。但在某些情况下,只要以正确的方式操控机器人,人们就会稍微倾向于相信机器人感受到痛苦。
“如果机器人可以假装经历情绪困扰,那么人们在虐待机器人时就会感到更加内疚,”维尔林加解释道。
无聊的任务或摇晃机器人
通过多项测试,Wieringa 和她的同事研究了人们对机器人暴力行为的反应。
“一些参与者观看了机器人受到虐待或受到良好对待的视频,”她说。“有时,我们要求参与者亲自摇晃机器人。我们尝试了所有的变化。有时机器人没有反应,有时有反应——发出可怜的声音和其他与疼痛相关的反应。”
在测试中,很快发现受折磨的机器人会引发更多的怜悯:参与者不太愿意再次摇晃机器人。“如果我们要求参与者摇晃一个没有表现出任何情绪的机器人,那么他们似乎一点也不觉得困难。”
在其中一项测试中,参与者被要求选择:完成一项无聊的任务或摇晃机器人。如果参与者选择摇晃机器人更长时间,则意味着他们不必执行任务太长时间。
维林加指出:“大多数人摇晃一个无声的机器人都没有问题,但是一旦机器人开始发出可怜的声音,他们就选择做这项无聊的任务了。”
电子宠物
维林加警告说,组织利用情感操纵只是时间问题。
“人们一度痴迷于电子宠物:能够成功引发情绪的虚拟宠物。但如果一家公司制造了一款新的电子宠物,而你却不得不花钱喂养它,那会怎样?这就是为什么我呼吁政府出台法规,规定聊天机器人、机器人和其他变体何时才可以表达情绪。”
但维尔林加认为,完全禁止情绪也不是好事。
“情感机器人确实有一些优势,”她解释道。“想象一下可以帮助人们处理某些事情的治疗机器人。在我们的研究中,我们发现大多数参与者认为机器人引发同情心是件好事。据他们说,这表明暴力行为是不对的。不过,我们需要警惕对‘虚假’情绪敏感的人的风险。我们喜欢认为自己是非常合乎逻辑、理性的生物,不会被任何事情所左右,但归根结底,我们也受情绪的支配。这也好,否则我们自己也会成为机器人。”
页:
[1]