Josiah02 发表于 2024-8-29 12:49:26

人类对人工智能系统的监督可能并不像我们想象的那么有效——尤其是在战争方面

随着人工智能 (AI) 变得越来越强大,甚至被用于战争,政府、科技公司和国际机构迫切需要确保其安全。大多数关于人工智能安全的协议都有一个共同点,那就是需要对技术进行人类监督。
理论上,人类可以充当防范误用和潜在幻觉(即人工智能生成错误信息)的保障。例如,这可能涉及人类审查技术生成的内容(其输出)。然而,正如越来越多的研究和一些现实生活中的人工智能军事应用案例所表明的那样,人类作为计算机系统的有效检查者这一想法存在着固有的挑战。
迄今为止,在制定人工智能法规的努力中,许多法规已经包含了促进人类监督和参与的语言。例如,欧盟的人工智能法案规定,高风险的人工智能系统(例如那些已经投入使用的使用视网膜扫描仪等生物识别技术自动识别人员的系统)需要由至少两名具备必要能力、培训和权威的人分别进行验证和确认。
在军事领域,英国政府在 2024 年 2 月对议会关于武器系统人工智能的报告的回应中承认了人类监督的重要性。该报告强调通过为人类提供适当的培训来实现“有意义的人类控制”。它还强调了人类责任的概念,并表示武装空中无人机等行动的决策不能转移到机器上。
到目前为止,这一原则基本得到遵守。军用无人机目前由人类操作员及其指挥系统控制,他们负责武装飞机的行动。然而,人工智能有可能使无人机及其使用的计算机系统更加强大和自主。
这包括目标捕获系统。在这些系统中,由人工智能引导的软件会选择并锁定敌方战斗人员,允许人类批准使用武器打击他们。
虽然目前还未普遍应用,但加沙战争似乎已经证明了这种技术已经投入使用。以巴出版物《+972》杂志报道了以色列正在使用一种名为“Lavender”的系统。据报道,这是一种基于人工智能的目标推荐系统,结合了其他自动化系统,可以跟踪已识别目标的地理位置。
目标获取
2017年,美国军方构想了一个名为Maven的项目,目标是将AI融入武器系统。多年来,它已经发展成为一个目标获取系统。据报道,它大大提高了武器平台目标推荐流程的效率。
根据人工智能伦理学术研究的建议,需要有人来监督目标获取机制的输出,这是决策循环的关键部分。
尽管如此,研究人类如何与计算机合作的心理学提出了一些值得思考的重要问题。在 2006 年的一篇同行评议论文中,美国学者玛丽·卡明斯总结了人类最终如何过度信任机器系统及其结论——这种现象被称为自动化偏见。
如果操作员不太可能质疑机器的结论,那么这有可能干扰人类作为自动决策检查的角色。
在 1992 年发表的另一项研究中,研究人员 Batya Friedman 和 Peter Kahn 认为,人类的道德主体感在使用计算机系统时会减弱,以至于他们认为自己无法对所产生的后果负责。事实上,该论文解释说,人们甚至可以开始将主体感归因于计算机系统本身。
鉴于这些趋势,我们应该谨慎考虑,过度信任计算机系统以及人类道德感被侵蚀的可能性是否也会影响目标捕获系统。毕竟,虽然从统计上看,误差幅度很小,但当我们考虑到对人类生命的潜在影响时,就会产生可怕的影响。
有关人工智能的各种决议、协议和立法有助于确保人类将发挥对人工智能的重要制约作用。然而,重要的是要问,在长期担任这一角色后,是否会出现脱节,即人类操作员开始将真人视为屏幕上的物品。

页: [1]
查看完整版本: 人类对人工智能系统的监督可能并不像我们想象的那么有效——尤其是在战争方面