人工智能的人性化可能会导致我们失去人性
爱尔兰作家约翰·康诺利曾经说过:“人性的本质,就是把他人的痛苦当成自己的痛苦,并采取行动去减轻这种痛苦。”在人类历史上的大部分时间里,我们都认为同理心是人类独有的特质,是人类区别于机器和其他动物的特殊能力。但这种信念现在正受到挑战。
随着人工智能在我们生活中占据越来越重要的地位,甚至进入我们最私密的领域,我们面临着一个哲学难题:将人类的特质归因于人工智能是否会贬低我们人类的本质?我们的研究表明,这是有可能的。
数字化陪伴
近年来,Replika 等人工智能“伴侣”应用吸引了数百万用户。Replika 允许用户创建自定义数字伴侣,进行亲密对话。付费购买Replika Pro 的会员甚至可以将他们的人工智能变成“浪漫伴侣”。
实体人工智能伴侣也紧随其后。JoyLoveDolls 等公司正在销售具有可定制功能的互动性爱机器人,包括乳房大小、种族、动作和人工智能反应,如呻吟和调情。
虽然目前这还是一个小众市场,但历史表明,今天的数字趋势将成为明天的全球规范。大约四分之一的成年人感到孤独,对人工智能伴侣的需求将会增长。
人工智能人性化的危险
长期以来,人类一直将人类特征赋予非人类实体——这种倾向被称为拟人化。我们使用 ChatGPT 等人工智能工具来做到这一点并不奇怪,这些工具似乎可以“思考”和“感受”。但为什么将人工智能人性化是一个问题呢?
首先,它让人工智能公司能够利用我们与类人实体建立联系的倾向。Replika 被宣传为“会关心我们的人工智能伴侣”。然而,为了避免法律问题,该公司在其他地方指出,Replika 不具备感知能力,只是通过数百万次用户互动进行学习。
一些人工智能公司公开宣称他们的人工智能助手具有同理心,甚至可以预测人类的需求。这种说法具有误导性,可能会利用寻求陪伴的人。如果用户相信他们的人工智能伴侣真正理解他们,他们可能会投入大量的情感。
这引发了严重的伦理问题。一旦用户赋予人工智能伴侣某种感知能力,他们就会犹豫是否删除(即“抛弃”或“杀死”)人工智能伴侣。
但是,如果该伴侣意外消失,例如用户不再负担得起,或者运营该伴侣的公司倒闭,会发生什么情况呢?虽然伴侣可能不是真实的,但依附于它的感觉却是真实的。
同理心——不仅仅是一种可编程的输出
把同理心简化为可编程的输出,我们是否会冒着削弱其真正本质的风险?要回答这个问题,我们首先要思考一下同理心到底是什么。
同理心包括用理解和关心来回应他人。当你的朋友向你诉说他们的痛苦时,你会与他们同甘共苦,或者当你感受到你所关心的人散发出的快乐时,你就会感受到同理心。这是一种深刻的体验——丰富而难以用简单的形式来衡量。
人类与人工智能之间的一个根本区别是,人类能够真切地感受到情绪,而人工智能只能模拟情绪。这涉及到意识这一难题,即人类的主观体验如何从大脑的物理过程中产生。
虽然人工智能可以模拟理解,但它声称拥有的任何“同理心”都是模仿同理心语言模式的编程的结果。不幸的是,人工智能提供商有经济动机诱使用户对他们看似有同理心的产品产生依赖。
非人类化假说
我们的“非人性化人工智能假说”强调了试图将人类简化为机器可以复制的一些基本功能所带来的伦理问题。我们越是将人工智能人性化,我们就越有可能让自己失去人性。
例如,依赖人工智能进行情感劳动可能会让我们对现实关系的不完美更加无法容忍。这可能会削弱我们的社会纽带,甚至导致情感技能退化。随着情感技能继续商品化和自动化,未来几代人可能会变得缺乏同理心——失去对人类基本品质的把握。
此外,随着人工智能伴侣变得越来越普遍,人们可能会用它们来取代真实的人际关系。这可能会增加孤独感和疏离感——而这些系统声称可以帮助解决这些问题。
人工智能公司收集和分析情感数据也带来了重大风险,因为这些数据可能被用来操纵用户并最大化利润。这将进一步侵蚀我们的隐私和自主权,将监控资本主义推向新的高度。
追究供应商的责任
监管机构需要采取更多措施,让人工智能提供商承担责任。人工智能公司应该诚实地说明他们的人工智能能做什么和不能做什么,尤其是当他们冒险利用用户的情感弱点时。
夸大“真正同情心”的言论应被定为非法。做出此类宣称的公司应受到罚款,屡教不改者应被关闭。
数据隐私政策也应该清晰、公平,并且不包含允许公司利用用户生成内容的隐藏条款。
我们必须保留定义人类体验的独特品质。虽然人工智能可以改善生活的某些方面,但它不能也不应该取代真正的人际关系。
页:
[1]