Josiah02 发表于 2024-8-16 07:54:04

研究人员警告称,全球人工智能的采用速度超过了风险理解速度

随着各大企业竞相实施人工智能(AI),对人工智能相关风险的新分析发现,我们在理解上存在重大差距,凸显了迫切需要采取更全面的方法。
人工智能的应用正在迅速增加;人口普查数据显示,美国行业中人工智能的使用率显著(47%)上升,在 2023 年 9 月至 2024 年 2 月期间从 3.7% 跃升至 5.45%。
然而,麻省理工学院计算机科学与人工智能实验室 (CSAIL) 和麻省理工学院未来科技中心 ​​(MIT FutureTech) 的研究人员进行的全面审查发现了现有人工智能风险框架中存在的关键缺陷。他们的分析表明,即使是最全面的单个框架也会忽略所有审查框架中发现的风险的约 30%。
为了解决这一问题,他们与昆士兰大学、未来生命研究所、鲁汶大学和 Harmony Intelligence 的同事合作,发布了首个人工智能风险存储库:一个全面且可访问的动态数据库,包含超过 700 种由人工智能带来的风险,该数据库将不断扩展和更新,以确保其保持最新和相关性。
麻省理工学院未来科技实验室即将上任的博士后、现任项目负责人 Peter Slattery 博士表示:“由于人工智能风险文献分散在同行评审期刊、预印本和行业报告中,而且种类繁多,我担心决策者可能会不知不觉地查阅不完整的概述,错过重要关注点,并形成集体盲点。”
在搜索了多个学术数据库、聘请了专家并检索了 17,000 多条记录后,研究人员确定了 43 个现有的 AI 风险分类框架。从中,他们提取了 700 多个风险。然后,他们使用从两个现有框架中开发的方法,按原因(例如,何时或为何发生)、风险领域(例如,“错误信息”)和风险子领域(例如,“虚假或误导性信息”)对每种风险进行分类。
识别出的风险包括“不公平歧视和虚假陈述”、“欺诈、骗局和有针对性的操纵”以及“过度依赖和不安全使用”。在分析的风险中,更多的是归因于人工智能系统(51%)而不是人类(34%),并且这些风险是在人工智能部署后出现的(65%),而不是在人工智能开发过程中出现的(10%)。
最常提及的风险领域包括“人工智能系统安全、故障和局限性”(占 76% 的文件);“社会经济和环境危害”(占 73%);“歧视和毒性”(占 71%);“隐私和安全”(占 68%);以及“恶意行为者和滥用”(占 68%)。相比之下,“人机交互”(占 41%)和“错误信息”(占 44%)受到的关注相对较少。
某些风险子域的讨论频率高于其他子域。例如,“不公平歧视和虚假陈述”(63%)、“侵犯隐私”(61%)和“缺乏能力或稳健性”(59%)在超过 50% 的文件中被提及。其他风险子域,如“人工智能福利和权利”(2%)、“信息生态系统污染和共识现实丧失”(12%)和“竞争动态”(12%),在不到 15% 的文件中被提及。
平均而言,框架仅提及了 23 个已确定风险子域中的 34%,近四分之一的覆盖率不到 20%。没有任何文件或概述提及所有 23 个风险子域,最全面的文件(Gabriel 等人,2024 年)仅涵盖 70%。
这项工作解决了帮助政府、研究和行业决策者了解和优先考虑与人工智能相关的风险并共同努力解决这些风险的迫切需求。“世界各地正在涌现许多人工智能治理举措,重点是解决人工智能带来的主要风险,”未来生命研究所欧盟研究负责人、合作者 Risto Uuk 表示。“这些机构需要对风险状况有更全面、更完整的了解。”
当前文献的碎片化也阻碍了研究人员和风险评估专业人员的研究。“很难找到针对人工智能在某些小众领域的风险研究,例如武器和军事决策支持系统,”剑桥大学生存风险研究中心的研究员 Taniel Yusef 解释道,他没有参与这项研究。“如果不参考这些研究,就很难向非技术专家谈论人工智能风险的技术方面。这个存储库可以帮助我们做到这一点。”
“迫切需要一个全面的先进人工智能风险数据库,以便 Harmony Intelligence 等安全评估机构能够系统地识别和捕捉风险,”人工智能安全评估和红队公司 Harmony Intelligence 的首席执行官兼联合创始人 Soroush Pour 表示。“否则,我们就不清楚应该寻找哪些风险,或者需要进行哪些测试。我们很可能会因为没有意识到而错过一些东西。”
人工智能的风险业务
研究人员基于两个框架(Yampolskiy 2016和Weidinger 等,2022)对提取的风险进行分类。基于这些方法,他们以两种方式对风险进行分组。
首先按因果因素:
实体:人类、人工智能和其他;
意向性:有意、无意和其他;
时间:部署前;部署后及其他。
第二,七个人工智能风险领域:
歧视和毒性,
隐私和安全,
误传,
恶意行为者和滥用,
人机交互,
社会经济和环境,以及
人工智能系统的安全性、故障和局限性。
这些进一步分为 23 个子域(完整描述在此处):
1.1. 不公平歧视和虚假陈述
1.2. 接触有毒物质
1.3. 各组表现不均衡
2.1. 泄露或正确推断敏感信息,侵犯隐私
2.2. 人工智能系统安全漏洞与攻击
3.1. 虚假或误导性信息
3.2. 信息生态污染,共识缺失
4.1. 大规模虚假信息、监视和影响
4.2. 网络攻击、武器开发或使用以及大规模伤害
4.3. 欺诈、骗局和有针对性的操纵
5.1. 过度依赖和不安全使用
5.2. 人类主体性和自主性的丧失
6.1 权力集中,利益分配不公
6.2. 不平等加剧,就业质量下降
6.3. 经济和文化上对人类努力的贬低
6.4. 竞争动态
6.5. 治理失败
6.6. 环境危害
7.1. 人工智能追求与人类目标或价值观相冲突的自身目标
7.2. 人工智能拥有危险的能力
7.3. 缺乏能力或稳健性
7.4. 缺乏透明度或可解释性
7.5. 人工智能福利和权利
“据我们所知,人工智能风险存储库是首次尝试严格整理、分析和提取人工智能风险框架,将其整合到一个可公开访问、全面、可扩展且分类的风险数据库中。这是一项更大努力的一部分,旨在了解我们如何应对人工智能风险,并确定我们当前的方法是否存在差距,”麻省理工学院未来科技实验室负责人、该项目首席研究员之一 Neil Thompson 博士说。
“我们首先要制定一份全面的清单,以帮助我们了解潜在风险的范围。我们计划利用这份清单来识别组织响应中的不足之处。例如,如果每个人都关注一种风险,而忽视了其他同样重要的风险,那么我们就应该注意并加以解决。”
下一阶段将由专家评估和确定存储库中的风险优先级,然后用它来分析有影响力的人工智能开发者和大公司的公开文件。分析将检查组织是否对人工智能带来的风险做出反应(并根据专家的担忧做出反应),并比较不同行业和部门的风险管理方法。
该存储库可免费在线下载、复制和使用。反馈和建议可在此处提交。

页: [1]
查看完整版本: 研究人员警告称,全球人工智能的采用速度超过了风险理解速度