中世纪神学对新问题有着古老的看法:人工智能的责任
自动驾驶出租车没有乘客,因此会自行停在停车场以减少交通拥堵和空气污染。被叫车后,出租车出发去接乘客——但在途中不幸撞到了人行道上的一名行人。谁或什么应该为汽车减少交通拥堵和空气污染的行为受到赞扬?又谁或什么应该为行人的伤害受到指责?
一种可能是自动驾驶出租车的设计者或开发者。但在很多情况下,他们无法预测出租车的确切行为。事实上,人们通常希望人工智能能发现一些新的或意想不到的想法或计划。如果我们确切地知道系统应该做什么,那么我们就不需要人工智能了。
或者,也许出租车本身应该受到赞扬和指责。然而,这类人工智能系统本质上是确定性的:它们的行为由代码和传入的传感器数据决定,即使观察者可能很难预测这种行为。从道德上评判一台别无选择的机器似乎很奇怪。
许多 现代 哲学家认为,理性主体可以对自己的行为承担道德责任,即使他们的行为完全是预先确定的——无论是通过神经科学还是代码。但大多数人都认为,道德主体必须具备自动驾驶出租车几乎肯定缺乏的某些能力,比如塑造自身价值观的能力。人工智能系统处于道德主体和非道德工具之间的尴尬中间地带。
作为一个社会,我们面临一个难题:似乎没有人或任何事物对人工智能的行为负有道德责任——哲学家称之为责任鸿沟。当今的道德责任理论似乎根本不适合理解涉及自主或半自主人工智能系统的情况。
如果当前的理论行不通,那么也许我们应该回顾过去——回顾在今天仍有惊人反响的数百年历史的思想。
上帝与人
类似的问题困扰着 13 和 14 世纪的基督教神学家,从托马斯·阿奎那到邓斯·司各特再到奥卡姆的威廉。如果无所不知的上帝设计了人们——并且可能知道他们会做什么——人们又怎么能对自己的行为和结果负责呢?
中世纪哲学家认为,人的决定源自其意志,是智力的产物。广义上讲,他们认为人类智力是一组能够进行理性思考和学习的心理能力。
智力是人们的思想或灵魂中理性、逻辑的部分。当两个人面对相同的情况,并且他们都对如何处理事情得出相同的“理性结论”时,他们就运用了智力。从这个意义上说,智力就像计算机代码。
但智力并不总是能提供唯一的答案。通常,智力只提供可能性,而意志则有意识或无意识地从中选择。意志是从可能性中自由选择的行为。
举个简单的例子,在下雨天,理智告诉我应该从衣柜里拿一把伞,但不会告诉我拿哪一把。威尔选择了红色的伞,而不是蓝色的。
对于这些中世纪思想家来说,道德责任取决于意志和智力各自的贡献。如果智力决定只有一种可能的行为,那么我就没有其他选择,所以我没有道德责任。人们甚至可以得出结论,上帝有道德责任,因为我的智力来自上帝——尽管中世纪神学家们对将责任归咎于上帝非常谨慎。
另一方面,如果智力绝对不会对我的行为施加任何限制,那么我就完全负有道德责任,因为意志在做所有工作。当然,大多数行为都涉及智力和意志的贡献——通常不是非此即彼。
此外,其他人也经常会限制我们:从父母、老师到法官和君主,尤其是在中世纪哲学家时代——这使得归因于道德责任变得更加复杂。
人类与人工智能
显然,人工智能开发者和他们创造物之间的关系并不完全等同于上帝和人类之间的关系。但作为哲学 和计算机教授,我们看到了有趣的相似之处。这些较早的想法可能有助于我们今天思考人工智能系统及其设计者如何分担道德责任。
AI 开发者并非无所不知的神,但他们通过选择和实现AI 系统的学习方法和响应能力,为 AI 系统提供了“智力”。从设计者的角度来看,这种“智力”限制了 AI 的行为,但几乎从未完全决定其行为。
大多数现代人工智能系统的设计都是为了从数据中学习,并能动态地响应环境。因此,人工智能似乎有一种“意志”,可以在其“智力”的约束下选择如何做出反应。
用户、管理者、监管者和其他各方可以进一步约束人工智能系统——类似于中世纪哲学家的框架中君主等人类权威对人民的约束。
谁该负责?
这些千年历史的思想与涉及人工智能系统的道德问题结构有着惊人的相似性。那么让我们回到开头的问题:谁或什么应该对自动驾驶出租车的好处和危害负责?
细节很重要。例如,如果出租车开发人员明确写下出租车在人行横道上应如何行动,那么其行动将完全取决于其“智力”——因此开发人员将承担责任。
然而,假设出租车遇到了没有明确编程的情况——例如人行横道的涂装方式不同,或者出租车从其环境数据中了解到的内容与开发人员的设想不同。在这种情况下,出租车的行为主要取决于其“意愿”,因为出租车选择了一个意想不到的选项——因此出租车要承担责任。
如果出租车负有道德责任,那又怎样?出租车公司有责任吗?出租车的守则是否应该更新?甚至我们两人都对完整答案意见不一。但我们认为,更好地理解道德责任是重要的第一步。
中世纪的思想不仅仅涉及中世纪的物品。这些神学家可以帮助当今的伦理学家更好地理解人工智能系统面临的当今挑战——尽管我们只触及了皮毛。
页:
[1]