Josiah02 发表于 2024-9-19 12:29:52

全球大国正在努力“负责任地”使用军事人工智能。那将会是什么样子?

上周,来自世界各地的约 2,000 名政府官员和专家齐聚韩国首尔,参加REAIM(军事领域负责任人工智能)峰会。这是第二次此类活动,第一次于 2023 年 2 月在荷兰举行。
在今年的峰会上, 61个国家通过了管理军方开发和使用人工智能的“行动蓝图” 。
然而,包括中国在内的30个国家派出政府代表出席峰会但并未认可该蓝图。
这份蓝图虽然不大,但意义重大。但在理解什么是负责任地使用人工智能以及如何将其转化为军事领域的具体行动方面仍然存在差距。
人工智能目前在军事领域是如何应用的?
过去几年,人工智能的军事应用不断增加,尤其是在俄罗斯-乌克兰和以色列-巴勒斯坦冲突中。
以色列已使用名为“福音”和“薰衣草”的人工智能系统帮助其做出关键军事决策,例如对哪些地点和人员实施炸弹袭击。这些系统使用大量数据,包括人员地址、电话号码和聊天组成员身份。
今年早些时候,“薰衣草”系统尤其成为头条新闻,当时批评者质疑其有效性和合法性。人们特别关注的是它的训练数据以及它如何对目标进行分类。
俄罗斯和乌克兰都使用人工智能来支持军事决策。卫星图像、社交媒体内容和无人机监视只是产生大量数据的众多信息来源中的一部分。
人工智能可以比人类更快地分析这些数据。其结果被纳入现有的“杀伤链”——定位、跟踪、瞄准和攻击目标的过程。
这意味着军事官员可以在激烈的武装冲突中做出更快的决策,从而获得战术优势。然而,滥用人工智能系统也可能造成潜在危害。
民间社会和红十字国际委员会等非政府组织已就这些风险发出警告。例如,算法偏差可能会加剧战争期间平民面临的风险。
军事领域负责任的人工智能是什么?
对于什么是“负责任的”人工智能,目前尚无共识。
一些研究人员认为技术本身是可以负责任的。在这种情况下,“负责任”意味着具有内在的公平性和无偏见性。
其他研究则认为,人工智能的设计、开发和使用等实践应负责任。这意味着实践应合法、可追溯、可靠,并注重减轻偏见。
最近在首尔举行的峰会上通过的蓝图符合后一种解读。它主张在军队中使用人工智能的任何人都必须遵守相关的国家和国际法律。
它还强调了人类在军事领域开发、部署和使用人工智能方面的重要性。这包括确保人类对武力使用的判断和控制得到负责任和安全的管理。
这是一个重要的区别,因为许多有关人工智能的叙述错误地暗示了缺乏人类的参与和责任。
政府可以做些什么来负责任地使用军事人工智能?
峰会的讨论重点集中在政府可采取的支持负责任地使用军事人工智能的具体措施上。
随着军事人工智能的使用日益增多,我们需要采取临时措施来应对。有人建议,在不同的地区之间达成人工智能监管协议,而不是花更长的时间达成全球普遍共识。
为了加强军事人工智能方面的全球合作,我们还可以吸取以往全球挑战的经验教训,例如核不扩散、保护臭氧层以及保持外层空间和南极洲的非军事化。
自去年首次峰会召开 18 个月以来,各国政府和其他责任方已开始制定军事人工智能的风险缓解流程和工具包。
该蓝图反映了自那时以来取得的进展以及峰会上讨论的想法。它提出了一些切实可行的步骤,其中包括:
对人工智能军事能力进行普遍法律审查
在国家、地区和国际层面促进关于制定措施确保军事领域负责任的人工智能的对话
在军事领域人工智能的开发、部署和使用中保持适当的人类参与。
然而,进展缓慢,因为我们仍然没有对负责任的军事人工智能到底是什么样子有一个普遍的了解。
解决这些问题的必要性现在给下一届峰会(尚未宣布)带来了压力。荷兰还成立了一个专家机构,以进一步推动全球对军事人工智能采取一致的做法。
人类可以从人工智能工具中受益。但我们迫切需要确保它们带来的风险不会扩散,特别是在军事领域。

页: [1]
查看完整版本: 全球大国正在努力“负责任地”使用军事人工智能。那将会是什么样子?