研究发现,人工智能聊天机器人表现出独特的决策偏见
您是否想过人工智能聊天机器人如何做出决策?这个问题在康奈尔理工学院的一间教室里出现,并促使康奈尔 SC 约翰逊商学院开展了一项新研究,深入探讨人类和人工智能决策过程之间的差异。在工作论文《人工智能聊天机器人是否提供了外部视角?》中,SC 约翰逊学院查尔斯 H. 戴森应用经济与管理学院实践教授 Stephen Shu 和他的合著者探讨了人工智能聊天机器人的决策特征。
该项研究发表在SSRN 电子期刊上。
“令人惊讶的是,我们的研究表明,尽管人工智能聊天机器人拥有强大的计算能力,但它们的决策模式既不是纯粹的人类模式,也不是完全理性的,”舒说。“它们拥有我们所说的类似于人类的‘内部视角’,其特点是容易受到认知偏见的影响,例如合取谬误、过度自信和确认偏见。”
合取谬误是一种常见的推理错误,即个人认为特定情况比单一一般情况更有可能发生。证实偏差意味着人们更喜欢支持他们已经相信的事情的信息。
人工智能聊天机器人还提供了 Shu 所称的“外部视角”,在某些方面补充了人类的决策。它们擅长考虑基准利率,不易受到因记忆力有限而产生的偏见的影响,并且对可用性和禀赋效应偏差不敏感。例如,人类倾向于表现出禀赋效应偏差,即当他们拥有某件物品时(而不是当他们不拥有时)会更重视该物品,而人工智能聊天机器人似乎并没有表现出这种偏差。
这项研究涵盖了各种人工智能平台,包括 ChatGPT、Google Bard、Bing Chat AI、ChatGLM Pro 和 Ernie Bot。研究人员根据行为经济学得出的 17 条原则评估了他们的决策过程,揭示了人类与人工智能之间的联系。
最有趣的发现之一是,人工智能聊天机器人的决策并不像研究人员预期的那样接近人类行为。尽管人工智能聊天机器人接受了大量数据集的训练,但它们的决策倾向有时却违背了传统的人类或理性逻辑。例如,人类在面临损失时往往倾向于寻求风险(例如,冒险将损失降到最低),而人工智能聊天机器人在做出选择时可能更倾向于在面临损失时寻求确定性(例如,接受损失,而不是试图冒险将损失降到最低)。
对于利用人工智能聊天机器人的商业人士来说,了解这些决策动态至关重要。虽然人工智能可以提供有价值的见解和帮助,但保持一定程度的怀疑态度至关重要。认识到人工智能提供“内部视角”的情况有助于减轻过度自信和确认偏差的风险。相反,利用人工智能的“外部视角”能力可以利用其在考虑基准率方面的优势并减轻源于人类局限性的偏见,从而增强决策能力。
随着人工智能不断渗透到社会的各个方面,了解其决策动态变得越来越重要。舒的研究揭示了人工智能的能力、局限性以及补充人类决策过程的潜力。
依赖或提倡使用人工智能的企业经理可能会对这项研究感兴趣。专注于技术和行为科学主题的媒体,如《哈佛商业评论》(HBR),也可能对研究结果产生浓厚兴趣。
舒教授表示:“探索人工智能决策的未知领域汇集了不同的观点,为更深入地了解这项快速发展的技术及其对社会的影响铺平了道路。随着我们继续这一旅程,我们的目标是促进负责任和知情地使用人工智能,确保它成为决策者手中的进步和赋权工具。”
Shu 的合著者包括康奈尔大学安·S·鲍尔斯计算机与信息科学学院实践助理教授 Sreyoshi Das,以及独立研究人员 Daniela Hernandez Correal、Omar Fayaz、Junhui Lei、Prem Kumar Mullai Manavalan、Xinguo Peng、Nicholas Sakaguchi 和 Sneha Suresh。
页:
[1]