对于人工智能来说,保密往往并不能提高安全性
由于担心人工智能会被滥用,政治领导人考虑对新兴技术进行监管,限制人们接触人工智能模型的内部运作。但普林斯顿等顶尖大学的研究人员警告称,这种限制可能弊大于利。在 10 月 10 日《科学》杂志网络版发表的一篇文章中,包括普林斯顿大学计算机科学教授 Arvind Narayanan 和研究生 Sayash Kapoor 在内的研究小组得出结论,限制公众访问人工智能系统底层结构可能会产生一些负面影响。
这些措施包括通过限制工程师改进和调整模型的能力来抑制创新;提高模型操作的保密性;以及将权力集中在控制技术访问权的少数个人和公司手中。
文章详细讨论了人工智能系统在虚假信息、黑客攻击、生物恐怖主义和虚假图像制作等领域的滥用所带来的威胁。研究人员评估了每种风险,并讨论了是否有比限制人工智能模型访问更有效的方法来对抗这些风险。
例如,在讨论人工智能如何被滥用来生成电子邮件诈骗(称为鱼叉式网络钓鱼)的文本时,研究人员指出,加强防御比限制人工智能更有效。
他们写道:“鱼叉式网络钓鱼的关键瓶颈通常不是电子邮件文本,而是下游的安全措施:现代操作系统、浏览器和电子邮件服务针对此类恶意软件实施了多层保护。”
过去几年,人工智能的兴起引发了监管该技术的呼声,包括白宫和欧盟的举措。问题在于构成当今主要人工智能系统(如 GPT-4 和 Llama 2)的计算机代码和数据的构建。这些系统被称为基础模型,可以用来编写报告、创建图形和执行其他任务。
这些模型之间的主要区别在于它们的发布方式。一些模型称为开放模型,完全可供公众查阅。另一些模型称为封闭模型,只有其设计者才能使用。第三种类型是混合模型,它们将模型的一部分保密,而将其他部分允许公众访问。
虽然这种区别似乎很技术性,但对于监管来说却至关重要。研究人员表示,对人工智能模型的大部分担忧都与模型可能被恶意破坏的方式有关。打击滥用的一个选择是通过限制对人工智能模型的访问来使改编变得更加困难。
监管机构可以通过要求开发者阻止外部访问来做到这一点。他们还可以让开发者对其他人滥用模型承担法律责任,这可能会产生同样的结果。
研究人员发现,现有证据并未表明开放模式比封闭模式或通过在线搜索等标准研究技术已经可获得的信息更具风险。
在今年早些时候举行的国际机器学习大会上发表的一篇文章中,研究人员得出结论,有证据表明,限制模型的访问并不一定能降低滥用的风险。部分原因是即使是封闭的模型也可能被破坏,部分原因是恶意行为者的信息可能已经通过搜索引擎在互联网上提供。
研究人员写道:“正确描述开放式基础模型的独特风险需要集中边际风险:相对于封闭式基础模型或搜索引擎等现有技术,开放式基础模型在多大程度上增加了风险。”
研究人员表示,这并不意味着不应该限制模型的访问。在某些领域,封闭模型提供了最佳解决方案。但他们认为,监管机构需要仔细考虑限制访问是否是防止危害的最佳方式。
“对于许多威胁向量而言,现有的边际风险证据有限,”他们写道。“这并不意味着开放基金会模式在这些向量上不构成风险,而是需要更严格的分析来证实政策干预。”
页:
[1]