Josiah02 发表于 4 天前

专家呼吁采用复杂系统方法评估人工智能风险

随着人工智能日益渗透到我们生活的方方面面,专家们越来越担心其危险性。在某些情况下,风险迫在眉睫,而在其他情况下,风险要等到数月甚至数年后才会显现。
科学家在《皇家学会哲学学报 A 数学物理与工程科学》中指出,理解这些威胁的连贯方法仍然难以捉摸。这篇论文的标题是“从复杂系统角度评估人工智能的风险”。
他们呼吁从复杂系统的角度来更好地评估和减轻这些风险,特别是考虑到人工智能与社会之间的长期不确定性和复杂互动。
“要了解人工智能的风险,就需要认识到技术与社会之间错综复杂的相互作用。这关乎驾驭塑造我们决策和行为的复杂、共同进化的系统,”本文合著者法里巴·卡里米 (Fariba Karimi) 说道。卡里米领导着复杂性科学中心 (CSH) 的算法公平性研究团队,同时也是格拉茨技术大学的社会数据科学教授。
“我们不仅应该讨论部署哪些技术以及如何部署,还应该讨论如何适应社会背景以利用积极的可能性。人工智能的可能性和风险应该在有关经济政策等的辩论中得到考虑,”该研究的第一作者、CSH 科学家 Dániel Kondor 补充道。
更广泛和长期的风险
文章作者指出,当前的风险评估框架通常侧重于直接、具体的危害,例如偏见和安全问题。“这些框架往往忽视了人工智能技术的广泛部署及其与所用社会环境的相互作用可能产生的更广泛、长期的系统性风险,”Kondor 说。
Kondor 补充道:“在本文中,我们试图平衡算法的短期观点和这些技术如何影响社会的长期观点。这是为了理解人工智能的直接后果和系统后果。”
现实生活中会发生什么
为了说明人工智能技术的潜在风险,科学家们以一个案例研究的形式,讨论了英国在新冠疫情期间学校考试中如何使用预测算法。研究显示,新解决方案“被认为更客观,因此更公平(比要求教师预测学生的表现更公平),因为它依赖于对前几年学生表现的统计分析”。
然而,当算法付诸实践时,出现了几个问题。“一旦应用评分算法,不公平现象就变得非常明显,”独立研究员兼研究合著者瓦莱丽·哈菲兹 (Valerie Hafez) 表示。
“来自弱势群体的学生承受了对抗分数膨胀的徒劳努力的冲击,但总体而言,40%的学生获得的分数低于他们的合理预期。”
Hafez 报告称,咨询报告中的许多回复表明,教师认为的重大风险(评分低于应得分数的长期影响)与算法设计者认为的风险不同。后者担心分数膨胀、由此给高等教育带来压力,以及对学生实际能力缺乏信任。
规模和范围
科学家们强调,这个案例表明了部署大规模算法解决方案时出现的几个重要问题。
“我们认为应该关注的一件事是规模和范围,因为算法具有可扩展性:它们可以很好地从一个环境转移到另一个环境,即使这些环境可能大不相同。创造的原始背景不会简单地消失,而是会叠加在所有其他背景之上,”哈菲兹解释道。
“长期风险并不是短期风险的线性组合。它们会随着时间的推移呈指数级增长。然而,通过计算模型和模拟,我们可以提供实用的见解,以更好地评估这些动态风险,”Karimi 补充道。
计算模型和公众参与
这是科学家提出的理解和评估人工智能技术短期和长期风险的方向之一。
Kondor 解释道:“计算模型(例如评估人工智能对社交网络中少数群体代表性的影响的模型)可以展示人工智能系统中的偏见如何导致反馈循环,从而加剧社会不平等。”此类模型可用于模拟潜在风险,提供传统评估方法难以获得的见解。
此外,该研究的作者强调了让外行和各个领域的专家参与风险评估过程的重要性。能力小组(汇集不同观点的小型异质团队)可以成为促进民主参与和确保风险评估由受人工智能技术影响最大的人提供信息的关键工具。
“一个更普遍的问题是提高社会韧性,这将有助于人工智能相关的辩论和决策更好地发挥作用,避免陷阱。反过来,社会韧性可能取决于许多与人工智能无关(或至少不直接相关)的问题,”Kondor 思考道。增加参与式决策形式可能是提高韧性的一个重要组成部分。
“我认为,一旦你开始将人工智能系统视为社会技术,你就无法将受人工智能系统影响的人与‘技术’方面分开。将他们与人工智能系统分开会剥夺他们塑造强加给他们的分类基础设施的可能性,剥夺受影响的人参与创造符合他们需求的世界的能力,”奥地利联邦总理府人工智能政策官员哈菲兹说。

页: [1]
查看完整版本: 专家呼吁采用复杂系统方法评估人工智能风险