Josiah02 发表于 2024-7-10 08:26:15

人工智能可以在武装冲突或危机中为人道主义组织提供支持,但他们应该了解潜在的风险

  人工智能可以帮助人道主义者获得重要见解,以更好地监测和预测风险,例如冲突爆发或升级。但一项新研究警告称,在这种情况下部署系统对受影响的人来说并非没有风险。
  人道主义组织越来越多地使用数字技术,而新冠疫情加速了这一趋势。
  莫桑比克使用人工智能支持的灾害地图来加快应急响应,世界银行使用人工智能系统来预测粮食危机,并在 21 个国家推广。
  但研究警告称,人工智能的某些用途可能会使人们遭受额外的伤害,并对保护他们的权利带来重大风险。
  这项研究发表在《战争与人工智能研究手册》上,由埃克塞特大学法学院的 Ana Beduschi 教授完成。
  Beduschi 教授表示:“人工智能技术有潜力进一步扩大人道主义任务在准备、响应和恢复方面的工具包。但必须采取保障措施,确保用于支持人道主义工作的人工智能系统不会变成排斥需要援助的人群的工具。还应制定尊重和保护数据隐私的保障措施。
  “在冲突和危机情况下部署人工智能系统时,‘不伤害’的人道主义要求应该是至关重要的。”
  研究指出,设计人工智能系统的人道主义组织应在设计和默认方面确保数据保护,以尽量减少伤害风险——无论他们是否有法律义务这样做。他们还应使用数据保护影响评估 (DPIA) 来了解这些技术的潜在负面影响。
  还应建立申诉机制,以便人们能够对自动化决策或人类在人工智能系统支持下做出的决策提出质疑,如果这些决策对他们产生了不利影响。
  Beduschi 教授补充道:“人工智能系统可以以越来越快的速度分析大量多维数据,识别数据中的模式并预测未来行为。这可以帮助组织获得关键见解,以更好地监控和预测风险,例如冲突爆发或升级。
  “然而,在人道主义背景下部署人工智能系统对受影响人群来说并非没有风险。问题包括用于训练人工智能算法的数据质量差、存在算法偏见、人工智能决策缺乏透明度,以及对尊重和保护数据隐私的普遍担忧。
  “人道主义者在决定是否部署人工智能来支持其行动时,必须遵守‘不伤害’的人道主义要求。在许多情况下,明智的解决方案是不依赖人工智能技术,因为这些技术可能会对平民造成额外的伤害。”

页: [1]
查看完整版本: 人工智能可以在武装冲突或危机中为人道主义组织提供支持,但他们应该了解潜在的风险