“机器被告”的崛起——当人工智能犯错时谁该负责?
很少有行业不受人工智能 (AI) 转型潜力的影响——或至少是被炒作所影响。对于企业而言,这项技术的前景远不止于撰写电子邮件。它已经用于自动化各种业务流程和交互、指导员工,甚至帮助医生分析医疗数据。
包括 OpenAI、Meta、Anthropic 和 Google 在内的各个 AI 模型创建者之间的竞争将继续推动快速改进。
我们应该期待这些系统随着时间的推移变得更加智能,这意味着我们可能开始相信它们会承担越来越多的责任。
那么最大的问题就变成了:如果出现严重错误该怎么办?谁最终对机器做出的决定负责?
我的研究就针对这个问题。令人担忧的是,我们当前的法律框架可能还不够完善。
到目前为止,我们似乎已经避免了灾难
任何技术进步,都不可避免地会出现问题。我们已经在互联网上看到了这一点,它给社会带来了巨大的好处,但也带来了许多新问题——例如社交媒体成瘾、数据泄露和网络犯罪的增加。
到目前为止,我们似乎已经避免了一场全球性的互联网灾难。然而,7 月份的 CrowdStrike 中断事件——迅速导致企业和许多其他服务陷入停顿——及时提醒我们,我们已经变得多么依赖技术,以及在这样一个相互依存的网络中,事情会多么迅速地崩溃。
与早期的互联网一样,生成人工智能也为社会带来了巨大的利益,但也可能带来一些重大且不可预测的负面影响。
当然,警告不绝于耳。一些专家认为,在极端情况下,失控的人工智能可能构成“核级”威胁,对人类的生存构成重大风险。
最明显的风险之一是“坏人”(例如有组织犯罪集团和流氓民族国家)利用该技术故意造成伤害。这可能包括使用深度伪造和其他虚假信息来影响选举,或大规模进行网络犯罪。我们已经看到了此类使用的例子。
当我们将重要任务和责任委托给人工智能时,尤其是在经营企业和其他基本服务时,会产生一些风险,虽然这些风险不那么引人注目,但仍然非常成问题。可以想象,未来全球技术中断可能完全由人工智能编写和传输的计算机代码造成,这绝非天方夜谭。
当这些人工智能做出的自主决定无意中造成伤害(无论是经济损失还是实际伤害)时,我们应该追究谁的责任?
我们的法律还没有准备好
令人担忧的是,我们现有的法律责任理论可能无法适应这一新现实。
这是因为,除了一些产品责任法外,当前的理论通常要求过错是故意的,或者至少是可证明的个人疏忽。
例如,疏忽索赔要求损害是合理可预见的,并且实际上是由设计师、制造商、销售商或特定案件中其他可能成为被告的人员的行为造成的。
但随着人工智能系统不断进步并变得更加智能,它们所做的事情几乎肯定会产生其制造商、设计师等可能完全没有预料到或预见到的结果。
这种“突发行为”可能是因为人工智能比其创造者更加聪明而产生的。但它也可能反映了先进人工智能系统的自我保护和自私驱动力或目标。
我自己的研究试图强调我们评估责任方式中迫在眉睫的一个重大问题。
假设某个人工智能造成了重大伤害,其人类和企业创造者可能能够保护自己免于刑事或民事责任。
他们可以这样说,他们无法合理预见损害,或者人工智能的意外行为打破了制造商行为与受害者遭受的损失、损害或伤害之间的因果关系链。
这些都是针对刑事或民事诉讼的可能辩护。
同样,刑事辩护方也会辩称,人工智能系统设计者的所谓犯罪“过错要件”——故意、知情、鲁莽或疏忽——与必要的“物理要件”不符——在本案中,物理要件是由机器实施的。
我们现在需要做好准备
市场力量正在推动人工智能快速发展。但具体会发展到什么程度,目前还不清楚。
事实证明,我们目前通过法院制定的普通法足以应对这些新问题。但我们也可能会发现现行法律存在缺陷,这可能会给未来的灾难增添不公正感。
重要的是确保那些从人工智能发展中获利最多的公司也要对出现问题时的成本和后果负责。
准备解决这一问题应该是所有民族国家(而不仅仅是澳大利亚)法院和政府的首要任务。
页:
[1]