人工智能似乎是一股不可阻挡的力量。但它并不是企业或社会的灵丹妙药
在希腊神话中,普罗米修斯被誉为人类之神,不仅为人类带来了火种,还带来了推动文明发展的“火花”。普罗米修斯的“礼物”带来的一个意想不到的后果是,人类对天神的需求减少了。现代人类所做的各种事情都带来了类似的意想不到的后果,从使用导致臭氧层空洞的氟利昂到建造他们不理解或无法完全控制的系统。在涉足人工智能(AI)时,人类似乎扮演了普罗米修斯的角色——为机器赠予引发文明的“火种”。
预测未来最好留给巫师和未来学家。但我们可以更好地了解人工智能运作方式带来的危险,并想办法避免这些陷阱。
首先,我们必须认识到人工智能对人类社会有着巨大的前景。人工智能正变得无处不在——从写电子邮件等日常任务到需要人类专业知识的复杂环境。
人工智能(我们所说的大型语言模型(LLM))似乎能够“理解”并产生人类语言,它们是预测机器。它们在大型数据集上进行训练,使它们能够在大量变量之间建立统计关联并预测下一步会发生什么。
如果您使用过 Google,您可能已经通过其预测提示体验过这种功能。例如,您可以输入“如何驾驶”,Google 会将其补充为“如何驾驶自动挡汽车”。它不太可能将其补充为“如何驾驶飞机”。Google 通过查看“如何驾驶”之后出现的单词的历史记录来确定这一点。它所训练的数据集越大,其预测就越准确。
这种逻辑的变体被用在目前所有的应用中。当然,人工智能的优势在于它能够处理海量数据,并推断其应用到未来。
但这种优势也是它的弱点——它很容易陷入管理学者所称的“信心陷阱”现象。这种倾向认为,既然先前的决策已经取得了积极成果,那么未来继续以同样的方式行事也是可以的。
举个例子:关键飞机部件的维护间隔。如果过去增加间隔效果良好(没有发生故障),那么这些方法可能会被广泛采用,并且可能会推动进一步增加间隔。然而,事实证明这是灾难的根源。阿拉斯加航空 261 航班坠入太平洋,机上 88 人全部遇难,原因可能是受到先前成功的影响,决定推迟关键部件的维护。
人工智能可能只会加剧这种趋势。人工智能分析会将人们的注意力转移到问题迹象上,从而为决策提供参考。
或者,人工智能可以推断过去的结果,无需人工干预即可做出决策。以无人驾驶汽车为例,无人驾驶汽车已经涉及十多起行人被杀的案件。无论数据集大小,都无法为行人可能采取的每种潜在行动提供训练。在这种情况下,人工智能还无法与人类的判断力相媲美。
但更令人担忧的是,人工智能可能会削弱人类的能力,甚至可能使人类丧失判断何时干预的能力。研究人员发现,使用人工智能会导致技能衰退——当工作场所的决策涉及生死攸关的后果时,这一点尤其令人担忧。
亚马逊在让“预测机器”做决定方面学到了惨痛的教训,其内部招聘工具歧视女性,因为它是在十年间偏向男性的数据库上训练的。当然,这些都是我们知道的例子。随着法学硕士变得越来越复杂,其内部运作也变得越来越不透明,我们甚至可能没有意识到事情何时出了问题。
回顾过去
由于人工智能反映了过去,因此它在激发根本性创新方面的能力也可能有限。从定义上讲,根本性创新就是对过去的突破。
考虑一下摄影的背景。创新的摄影师能够改变商业运作方式——新闻摄影的历史就是一个例子,它表明摄影最初只是一种新闻描述方式,后来逐渐获得了讲故事的力量,并被提升为一种艺术形式。
同样,可可·香奈儿等时装设计师也使女装变得现代化,使她们摆脱了战后世界不再流行的不舒服的长裙和紧身胸衣。
运动服装制造商 Under Armour 的创始人、前大学橄榄球运动员凯文·普朗克 (Kevin Plank) 利用棉质内衣出汗带来的不适感,开发出使用微纤维吸走身体水分的服装。人工智能可以改进这些创新。但由于其目前的运作方式,它不太可能成为创新的源泉。
简单来说,人工智能无法以新的方式看待或向我们展示世界,我们将这一缺陷称为“人工智能克里斯·洛克问题”,灵感来自这位喜剧演员开的一个关于让子弹变得非常昂贵的笑话。通过提出一种涉及“子弹管制”而不是枪支管制来遏制暴力的补救措施,洛克利用了文化时代精神并提出了一种创新的解决方案,引得观众大笑。在这样做的过程中,他还强调了这种情况的荒谬性——这需要人类的感知。
当以前行之有效的方法失去其相关性或解决问题的能力时,人工智能就会暴露其缺点。人工智能过去的成功意味着它将在不断扩大的圈子中推广——但这本身就构成了人类应该避免的信心陷阱。
普罗米修斯最终被赫拉克勒斯拯救。人类的背后没有这样的神。这意味着我们肩上的责任更多,而不是更少。其中一部分包括确保我们选出的代表对人工智能进行监管。毕竟,我们不能让技术官僚玩火,损害我们的利益。
页:
[1]