Josiah02 发表于 3 天前

Meta 现在允许军事机构访问其 AI 软件。这给使用它的每个人都带来了道德困境

这家科技巨头宣布,Meta 将向美国政府提供其生成人工智能 (AI) 模型,这一举动引发了争议,给每个使用该软件的人带来了道德困境。
Meta上周透露,将向政府机构提供名为 Llama 的模型,“包括从事国防和国家安全应用的机构,以及支持其工作的私营部门合作伙伴”。
这一决定似乎违反了 Meta 自己的政策,该政策列出了 Llama 的一系列禁止用途,包括“军事、战争、核工业或应用”以及间谍活动、恐怖主义、人口贩卖和剥削或伤害儿童。
据报道, Meta 的例外也适用于英国、加拿大、澳大利亚和新西兰的类似国家安全机构。就在三天前,路透社披露中国已将 Llama 改造用于自己的军事用途。
这种情况凸显了开源人工智能软件日益脆弱的现状。这也意味着 Facebook、Instagram、WhatsApp 和 Messenger(其中一些版本使用 Llama)的用户可能会无意中为世界各地的军事项目做出贡献。
什么是 Llama?
Llama是大型语言模型(类似于 ChatGPT)和处理文本以外数据(例如音频和图像)的大型多模式模型的集合。
Facebook 母公司 Meta 发布了 Llama,以回应 OpenAI 的 ChatGPT。两者之间的关键区别在于,所有 Llama 模型都以开源和免费使用的形式进行营销。这意味着任何人都可以下载 Llama 模型的源代码,并自行运行和修改它(如果他们拥有合适的硬件)。另一方面,ChatGPT 只能通过 OpenAI 访问。
负责定义开源软件的权威机构开放源代码促进会 (Open Source Initiative )最近发布了一项标准,阐明了开源 AI 应包含哪些内容。该标准概述了AI模型必须具备的“四项自由” ,才能被归类为开源:
无需请求许可即可将系统用于任何目的
研究系统如何工作并检查其组件
为了任何目的修改系统,包括更改其输出
为他人共享系统,无论是否修改,可用于任何目的。
Meta 的 Llama 未能满足这些要求。这是因为其商业用途受到限制,禁止开展可能被视为有害或非法的活动,并且 Llama 的训练数据缺乏透明度。
尽管如此,Meta 仍然将 Llama 描述为开源。
科技产业与军事的交汇
Meta 并不是唯一一家进军 AI 军事应用的商业技术公司。上周,Anthropic 还宣布与数据分析公司 Palantir 和亚马逊网络服务公司合作,为美国情报和国防机构提供其 AI 模型。
Meta 为其允许美国国家安全机构和国防承包商使用 Llama 的决定进行了辩护。该公司声称,这些用途是“负责任且合乎道德的”,并且“支持美国的繁荣和安全”。
Meta 并未公开其用于训练 Llama 的数据。但开发生成式 AI 模型的公司通常会利用用户输入数据来进一步训练他们的模型,而人们在使用这些工具时会分享大量个人信息。
ChatGPT 和 Dall-E 提供了选择不收集数据的选项。不过,目前尚不清楚 Llama 是否也提供同样的功能。
在注册使用这些服务时,并没有明确说明退出选项。这就要求用户自行了解情况——大多数用户可能不知道 Llama 在哪里或如何使用。
例如,最新版本的 Llama 为 Facebook、Instagram、WhatsApp 和 Messenger 中的 AI 工具提供支持。用户在使用这些平台上的 AI 功能(例如创建卷轴或建议标题)时,都在使用 Llama。
开源的脆弱性
开源的好处包括软件上的开放参与和协作。然而,这也可能导致系统脆弱,容易被操纵。例如,在 2022 年俄罗斯入侵乌克兰之后,公众对开源软件进行了修改,以表达对乌克兰的支持。
这些变化包括反战信息和删除俄罗斯和白俄罗斯计算机上的系统文件。这一运动被称为“抗议软件”。
开源 AI 与军事应用的交集可能会加剧这种脆弱性,因为开源软件的稳健性取决于公众社区。对于 Llama 等大型语言模型,它们需要公众使用和参与,因为这些模型旨在通过用户和 AI 系统之间的反馈循环随着时间的推移而改进。
开源 AI 工具的相互使用将公众和军方两方结合起来,而这两方历来都有不同的需求和目标。这种转变将给双方带来独特的挑战。
对于军方来说,开放访问意味着人工智能工具如何运作的细节很容易被获取,这可能会导致安全和漏洞问题。对于普通民众来说,军方如何使用用户数据缺乏透明度,可能会导致严重的道德和伦理困境。

页: [1]
查看完整版本: Meta 现在允许军事机构访问其 AI 软件。这给使用它的每个人都带来了道德困境