Josiah02 发表于 2024-8-5 08:05:51

Meta 刚刚推出了史上最大的“开放式”AI 模型——这就是它的重要性

  在人工智能 (AI) 领域,一场战争正在进行。一方是那些相信对其先进软件背后的数据集和算法保密的公司。另一方是那些相信让公众了解其复杂 AI 模型背后的秘密的公司。
  可以将此视为开源 AI 与闭源 AI 之间的战斗。
  最近几周,Facebook 母公司 Meta 大举加入开源 AI 的行列,发布了一系列大型 AI 模型。其中包括一个名为 Llama 3.1 405B 的模型,Meta 创始人兼首席执行官马克·扎克伯格称其为“第一个前沿级开源 AI 模型”。
  对于任何关心未来人人都能享受人工智能好处的人来说,这都是一个好消息。
  闭源人工智能的危险——以及开源人工智能的前景
  闭源人工智能是指专有且保密的模型、数据集和算法。例如ChatGPT、谷歌的 Gemini和Anthropic 的 Claude。
  虽然任何人都可以使用这些产品,但无法找出用于构建 AI 模型或工具的数据集和源代码。
  虽然这是公司保护其知识产权和利润的好方法,但它可能会损害公众的信任和责任感。将人工智能技术封闭源代码也会减缓创新,并使公司或其他用户依赖单一平台来满足他们的人工智能需求。这是因为拥有该模型的平台控制着更改、许可和更新。
  有一系列道德框架旨在提高人工智能的公平性、问责制、透明度、隐私性和人为监督。然而,由于专有系统固有的透明度和外部问责制缺乏,这些原则往往无法在闭源人工智能中完全实现。
  以 ChatGPT 为例,其母公司 OpenAI 既不向公众发布其最新 AI 工具的数据集,也不发布其代码。这使得监管机构无法对其进行审计。尽管该服务是免费的,但人们仍然担心用户的数据是如何存储和用于重新训练模型的。
  相比之下,开源人工智能模型背后的代码和数据集是公开可见的。
  这通过社区协作促进了快速发展,并使较小的组织甚至个人能够参与 AI 开发。这对中小型企业也有很大的影响,因为训练大型 AI 模型的成本是巨大的。
  也许最重要的是,开源人工智能可以审查和识别潜在的偏见和弱点。
  然而,开源人工智能确实带来了新的风险和道德问题。
  例如,开源产品的质量控制通常较低。由于黑客也可以访问代码和数据,因此模型也更容易受到网络攻击,并且可以针对恶意目的进行定制和自定义,例如使用来自暗网的数据重新训练模型。
  开源人工智能先驱
  在所有领先的人工智能公司中,Meta 已成为开源人工智能的先驱。凭借其新的人工智能模型套件,它正在实现 OpenAI 在2015 年 12 月成立时的承诺——即“以最有可能造福全人类的方式”推进数字智能,正如 OpenAI 当时所说的那样。
  Llama 3.1 405B是史上最大的开源 AI 模型。它就是所谓的大型语言模型,能够生成多种语言的人类语言文本。它可以在线下载,但由于其体积庞大,用户需要强大的硬件才能运行它。
  虽然 Llama 3.1 405B 在所有指标上的表现并不优于其他模型,但它被认为具有很强的竞争力,并且在某些任务(例如推理和编码任务)上的表现确实优于现有的闭源和商业大型语言模型。
  但新模型并非完全开放,因为 Meta 尚未公布用于训练该模型的庞大数据集。这是目前缺失的一个重要的“开放”元素。
  尽管如此,Meta 的 Llama 为研究人员、小型组织和初创企业提供了公平的竞争环境,因为它不需要从头开始训练大型语言模型所需的大量资源。
  塑造人工智能的未来
  为了确保人工智能的民主化,我们需要三个关键支柱:
  治理:监管和道德框架,确保人工智能技术的开发和使用负责任且合乎道德。
  可访问性:可负担的计算资源和用户友好的工具,以确保开发人员和用户享有公平的环境。
  开放性:用于训练和构建人工智能工具的数据集和算法应该是开源的,以确保透明度。
  实现这三大支柱是政府、产业、学术界和公众的共同责任。公众可以发挥重要作用,倡导人工智能道德政策、了解人工智能发展动态、负责任地使用人工智能以及支持开源人工智能计划。
  但关于开源人工智能仍有几个问题。我们如何在保护知识产权和通过开源人工智能促进创新之间取得平衡?我们如何才能最大限度地减少围绕开源人工智能的道德担忧?我们如何保护开源人工智能免遭滥用?
  正确解决这些问题将有助于我们创造一个人工智能成为所有人的包容性工具的未来。我们是否会迎接挑战并确保人工智能服务于更大的利益?还是我们会让它成为另一个令人讨厌的排斥和控制工具?未来掌握在我们手中。

页: [1]
查看完整版本: Meta 刚刚推出了史上最大的“开放式”AI 模型——这就是它的重要性