Josiah 发表于 2024-6-13 10:03:19

机器人会如何看待你的简历?人工智能在招聘中的偏见问题

人工智能革命已经开始,渗透到人们职业和个人生活的几乎每个方面——包括求职。

虽然艺术家担心版权侵犯或被取代,但企业和管理层越来越意识到在供应链管理、客户服务、产品开发和人力资源管理等不同领域提高效率的可能性。很快,所有业务领域和运营都将面临采用某种形式的人工智能的压力。但人工智能的本质——以及其流程和输出背后的数据——意味着人类的偏见已经根深蒂固地存在于该技术中。我们的研究关注的是人工智能在招聘和雇用中的应用——该领域已经广泛采用人工智能来自动筛选简历和对求职者的视频面试进行评分。招聘中的人工智能可以消除人为偏见,提高决策的公平性和一致性,从而确保招聘过程更加客观、高效。但我们的研究表明,人工智能可以微妙地(有时甚至是明显地)加剧偏见。人力资源专业人士的参与可能会加剧而不是减轻这些影响。这挑战了我们人类监督可以遏制和缓和人工智能的信念。放大人类偏见尽管在招聘中使用人工智能的原因之一是它应该更加客观和一致,但多项研究发现,这项技术实际上很容易出现偏见。这是因为人工智能从用于训练它的数据集中学习。如果数据有缺陷,人工智能也会有缺陷。支持人工智能的人类创建的算法可能会加剧数据中的偏见,因为这些算法在设计上往往包含人类的偏见。在对 22 位人力资源专业人士的采访中,我们发现了招聘中两种常见的偏见:“刻板印象偏见”和“与我相似偏见”。当决策受到对某些群体的刻板印象的影响时,就会出现刻板印象偏见,例如偏爱同一性别的候选人,从而导致性别不平等。当招聘人员青睐那些与自己有相似背景或兴趣的应聘者时,就会出现“与我相似”偏见。这些偏见会严重影响招聘流程的公平性,它们被嵌入到历史招聘数据中,然后用于训练人工智能系统。这会导致人工智能出现偏见。因此,如果过去的招聘做法偏向某些人群,那么人工智能将继续这样做。减轻这些偏见是一项挑战,因为算法可以根据来自其他相关信息的隐藏数据推断个人信息。例如,在男女服兵役年限不同的国家,人工智能可能会根据服役年限推断性别。这种偏见的持续存在凸显了仔细规划和监控的必要性,以确保人类和人工智能驱动的招聘流程的公平性。人类能帮忙吗?除了人力资源专业人士,我们还采访了 17 位人工智能开发人员。我们想研究如何开发一个能够减轻而不是加剧招聘偏见的人工智能招聘系统。根据访谈,我们开发了一个模型,其中人力资源专业人员和人工智能程序员在检查数据集和开发算法时会来回交换信息并质疑先入之见。然而,我们的研究结果表明,实施这种模式的困难在于人力资源专业人员和人工智能开发人员之间存在的教育、专业和人口差异。这些差异阻碍了有效的沟通、合作,甚至阻碍了相互理解的能力。人力资源专业人士传统上接受的是人员管理和组织行为方面的培训,而人工智能开发人员则精通数据科学和技术。这些不同的背景可能会导致合作时产生误解和不协调。这在资源有限且专业网络不够多样化的新西兰等小国尤其成问题。连接人力资源和人工智能如果公司和人力资源部门想要解决基于人工智能的招聘中的偏见问题,就需要做出一些改变。首先,实施以信息系统开发和人工智能为重点的人力资源专业人员结构化培训计划至关重要。该培训应涵盖人工智能的基础知识、人工智能系统中偏见的识别以及减轻这些偏见的策略。此外,促进人力资源专业人员和人工智能开发人员之间更好的合作也很重要。公司应该寻求建立包括人力资源和人工智能专家在内的团队。这可以帮助弥合沟通鸿沟,更好地协调他们的努力。此外,开发文化相关的数据集对于减少人工智能系统的偏见至关重要。人力资源专业人士和人工智能开发人员需要共同努力,确保人工智能驱动的招聘流程中使用的数据多样化并代表不同的人口群体。这将有助于创造更公平的招聘实践。最后,各国需要制定人工智能在招聘中的使用指南和道德标准,以建立信任并确保公平。组织应实施政策,促进人工智能驱动的决策过程的透明度和问责制。通过采取这些措施,我们可以创建一个更加包容、公平的招聘系统,充分发挥人力资源专业人士和人工智能开发人员的优势。
页: [1]
查看完整版本: 机器人会如何看待你的简历?人工智能在招聘中的偏见问题