当人工智能辅助决策时,人类何时应该取代它?
价值1840 亿美元的人工智能市场没有丝毫放缓的迹象。该市场很大一部分是依赖人工智能帮助做出决策的组织,从企业到政府机构。IBM 2023 年的一项研究发现,43 % 的首席执行官正在使用人工智能做出战略决策。但依赖人工智能可能会带来问题,因为人工智能存在偏见,包括种族和性别刻板印象。当人工智能考虑人口统计数据以阻止向某些人发放银行贷款或提供面试机会时,这可能会导致错误的建议和不公平的待遇。
专家表示,缓解这些问题的一种方法是让人工智能系统自我解释。通过审查人工智能对其如何做出决策的“解释”,人类招聘经理或贷款员等可以决定是否推翻人工智能的建议。
但德克萨斯州麦库姆斯的最新研究发现,这些解释本身可能存在问题。它们可能会助长人们对公平的看法,但并非以准确性或公平为基础。
信息、风险和运营管理助理教授玛丽亚·德阿特加 (Maria De-Arteaga) 说:“我们发现,这个过程实际上并没有让人类做出更高质量或更公平的决策。”
在这项研究中,De-Arteaga 和她的合著者——德克萨斯州立大学博士后研究员 Jakob Schoeffer 和德国拜罗伊特大学的 Niklas Kühl——让人工智能系统阅读了 134,436 份在线传记,并预测每个人是老师还是教授。
然后,人类参与者被允许阅读简历并选择是否推翻人工智能的建议。有两种类型的解释,每个参与者都看到了其中一种:
解释突出显示与任务相关的关键词,例如“研究”或“学校”。
突出显示与性别相关的关键词的解释,例如“他”或“她”。
研究发现,当解释强调性别而不是任务相关性时,参与者推翻人工智能建议的可能性高出 4.5 个百分点。
主要原因:怀疑存在性别偏见。当建议侧重于性别时,参与者更有可能认为建议不公平。
准确性和公平性的错觉
但参与者并不总是正确的。在识别教授或教师时,基于性别的解释并不比基于任务的解释更准确。事实上,与没有得到解释的参与者相比,这两种解释都没有提高人类的准确性。
为什么这些解释没能带来更好的决策?De-Arteaga 重点关注那些看到与任务相关的单词并假设它们没有性别偏见的参与者。
但研究却发现了相反的情况:算法可以通过学习看似与任务相关的词语与性别之间的关联来产生性别偏见。解释并没有揭示这种偏见。人类错误地认为人工智能是性别中立的,他们拒绝推翻它。
“人们希望解释能够帮助人们辨别推荐是否错误或有偏见,”De-Arteaga 说道。“但解释所起的作用与我们所希望的作用之间存在差距。”
尽管试图近似某些因素重要性的人工智能解释本质上存在缺陷,但 De-Arteaga 和她的合著者提出了几种方法,使其设计和部署对决策者更有用。
根据要做出的决定,为解释设定更具体、更现实的目标,并评估它们是否实现了预期目标。
在解释中提供更多相关线索,例如与人工智能系统公平性相关的线索。
通过更深入地了解算法的工作原理来扩大解释范围。例如,了解系统可以使用和不能使用哪些数据可能有助于人类更好地使用算法。
研究人类决定或不决定推翻人工智能决策时所起的心理机制。建议应反映人类与人工智能的实际互动方式,而不是研究人员希望人类与人工智能的互动方式。
她说,目标是开发出能够帮助人类成功补充人工智能系统的工具,而不仅仅是提供能够建立虚假信任感的解释。
“这是解释的问题之一,”她说,“它们可以让你更加信任这个系统,即使这个系统不值得你信任。”
《人机交互决策中的解释、公平性和适当依赖》发表在CHI 计算机系统人为因素会议论文集上。
更多信息: Jakob Schoeffer 等人,《人机交互决策中的解释、公平性和适当依赖》,CHI 计算机系统人为因素会议论文集(2024)。DOI :10.1145/3613904.3642621
页:
[1]