澳大利亚的新人工智能“护栏”如何清理混乱的人工智能市场
澳大利亚联邦政府今天推出了一套针对高风险人工智能的强制性防护措施,同时还推出了针对使用人工智能的组织的自愿安全标准。这些文件都提供了十个相互强化的护栏,为整个人工智能供应链中的组织设定了明确的期望。它们适用于所有使用人工智能的组织,包括旨在提高员工效率的内部系统和聊天机器人等面向外部的系统。
大多数护栏都涉及问责制、透明度、记录保存以及确保人类以有意义的方式监督人工智能系统等问题。它们与新兴的国际标准相一致,例如人工智能管理的 ISO 标准和欧盟的《人工智能法案》。
有关高风险人工智能强制性要求的提案(将于下个月向公众开放)承认人工智能系统的特殊性,限制了现有法律有效预防或减轻对澳大利亚人造成各种伤害的能力。虽然准确定义什么是高风险环境是咨询的核心部分,但拟议的基于原则的方法可能会涵盖任何具有法律效力的系统。例子可能包括人工智能招聘系统、可能限制人权的系统(包括一些面部识别系统)以及任何可能造成身体伤害的系统,例如自动驾驶汽车。
精心设计的护栏将改善技术并让我们所有人受益。在这方面,政府应加快法律改革力度,以澄清现有规则并提高市场透明度和问责制。同时,我们不需要也不应该等待政府采取行动。
人工智能市场一片混乱
目前,人工智能产品和服务市场一片混乱。核心问题是人们不知道人工智能系统如何工作、何时使用,以及输出结果对他们有帮助还是有害。
例如,最近有一家公司向我咨询有关一项生成式人工智能服务的建议,预计这项服务每年将花费数十万美元。该公司担心落后于竞争对手,难以在供应商之间做出选择。
然而,在讨论的前 15 分钟,该公司透露,它没有关于业务潜在利益的可靠信息,也不了解其团队目前使用生成式人工智能的情况。
我们必须正确认识这一点。如果你相信哪怕是一小部分炒作,人工智能对澳大利亚来说都是一个巨大的机遇。联邦政府引用的估计表明,到 2030 年,人工智能和自动化带来的经济推动力每年可能高达 6000 亿澳元。这将使我们的 GDP 比 2023 年的水平提高 25%。
但所有这些都存在风险。证据是,人工智能项目的失败率高得惊人(据估计超过 80%),一系列鲁莽的推广,公民信任度低,以及整个行业和政府可能出现数千起类似 Robodebt 的危机。
信息不对称问题
决策者缺乏技能和经验无疑是问题的一部分。但人工智能的快速创新正在加剧另一个挑战:信息不对称。
信息不对称是一个简单的、获得诺贝尔经济学奖的概念,它对每个人都有严重影响。对于人工智能来说,这是一个特别有害的挑战。
当买家和卖家对产品或服务的了解程度不均衡时,这不仅仅意味着一方获利而另一方受损。这可能会导致劣质产品占据市场主导地位,甚至导致市场完全崩溃。
人工智能造成大量信息不对称。人工智能模型技术性强且复杂,它们通常嵌入并隐藏在其他系统内,并且越来越多地被用于做出重要选择。
平衡这些不对称现象应该引起我们所有人的深切关注。董事会、高管和股东都希望人工智能投资能够获得回报。消费者希望系统能够符合他们的利益。我们都希望享受经济扩张带来的好处,同时避免人工智能系统在发生故障或被恶意使用或部署不当时可能造成的真正危害。
至少在短期内,销售人工智能的公司可以通过限制信息来获得真正的好处,这样他们就可以与天真的交易对手进行交易。解决这个问题需要的不仅仅是提高技能。它意味着使用一系列工具和激励措施来收集和分享有关人工智能系统的准确、及时和重要的信息。
企业现在可以做什么
现在是采取行动的时候了。澳大利亚各地的企业都可以采用自愿人工智能安全标准(或国际标准化组织版本),并开始收集和记录他们需要的信息,以便今天就做出更好的人工智能决策。
这将带来两方面的益处。首先,它将帮助企业采取结构化的方法来理解和管理他们自己对人工智能系统的使用,向他们的技术合作伙伴提出有用的问题(并要求他们给出答案),并向市场发出信号,表明他们的人工智能使用是值得信赖的。
其次,随着越来越多的企业采用该标准,澳大利亚和国际供应商和部署者将感受到市场压力,以确保他们的产品和服务符合目的。反过来,我们所有人都将更便宜、更容易地知道我们购买、依赖或被评判的人工智能系统是否真正满足我们的需求。
清除路径
澳大利亚的消费者和企业都希望人工智能是安全且负责任的。但我们迫切需要缩小愿望与实践之间的巨大差距。
美国国家人工智能中心的负责任人工智能指数显示,虽然 78% 的组织认为他们正在负责任地开发和部署人工智能系统,但只有 29% 的组织为此采取了实际行动。
安全且负责任的人工智能是良好治理与良好商业实践和以人为本的技术相结合的结果。从更大角度来看,它还关乎确保创新在运作良好的市场中蓬勃发展。在这两个方面,标准都可以帮助我们扫清障碍。
页:
[1]