人工智能如何帮助团队在课堂内外保持高效
小团队——无论他们从事什么项目——都会不断分享有关目标、障碍和下一步行动的信息。通过讨论各种选择,团队对工作达成了共识。这是一个复杂且明显需要人为的过程,如果一名成员不注意,或者只是误解了关键点而未能在团队推进时澄清这一点,那么很快就会变得一团糟。现在,科罗拉多州立大学的研究人员开发了一种模型,该模型可以让人工智能代理监控甚至潜在地裁决这些互动,以鼓励更好的协作。这项工作是该领域正在进行的努力的一部分,旨在将对非语言行为、言语和直接行动的理解更好地融入到人机协作场景中。研究结果在最近发表在《2024 年计算语言学、语言资源和评估联合国际会议论文集》上的一篇新论文中进行了详细介绍。
这篇论文探讨了“共同点追踪”的概念,即识别和监控团队在讨论任务时所拥有的共同信念和未解决的问题。这对于需要仔细追踪团队的口头和非口头互动的人工智能系统来说是一项艰巨的挑战,这些互动可能以微妙的方式交织在一起。它还需要了解团队随着时间的推移的思维过程,以及在团队偏离任务时如何进行最佳干预。
助理教授 Nikhil Krishnaswamy 通过计算机科学系领导了 CSU 的这项工作。他的团队进行了一项实验,其中三人小组试图用天平协作确定一组积木的重量。仔细记录参与者在此过程中的话语,例如“我认为积木放在这里”,以及指向等手势,提供了一组互动数据集,突出了实际的协作。
Krishnaswamy 的团队随后利用这些数据训练其深度神经模型,以实现共同地面跟踪。他表示,该模型是此类多方环境中实时动态跟踪的第一个实例,它可以与其他 AI 系统集成,在许多场景中提供团队支持。
“我们的模型专注于团队中那些能够产生良好协作的活动,例如声音、词语或行为,这些活动都是独立且实时跟踪的,”他说。“它还让我们看到命题和陈述是如何通过这些行为在团队中浮现出来的,以及它们是如何(或是否)被其他人接受为事实的。这种研究围绕这类人机系统以及人们与它们互动的方式建立了必要的素养。”
为未来人机交互奠定基础
Krishnaswamy 表示,大多数人很容易将信念和意图归因于行为的解释或预测,但人工智能系统仍难以做到这一点。他补充说,这不仅仅是一个计算问题,而是一个更好地将心理学和其他学科的概念结合起来以改进驱动人工智能的底层模型的问题。
Krishnaswamy 表示,这篇论文和更广泛的主题是 AI Institute for Student-AI Teaming 正在进行的联合研究的一部分。该小组正在研究有关在课堂上使用 AI 的相关问题,包括这些系统如何支持教育工作者或帮助提升来自不同背景或独特观点的声音。
Krishnaswamy 说:“我们的目标不是开发一种能给学生正确答案的人工智能,而是支持更好的协作和促进讨论,因为这往往会带来更好的答案。”
该论文的研究工作是通过该研究所与布兰迪斯大学的研究人员合作完成的。克里希纳斯瓦米表示,这两所大学还在为国防高级研究计划局 (DARPA) 开展一项相关项目,名为“对话交易中的问责摩擦”。这项工作旨在在战区等混乱环境中提供相同类型的人工智能支持。
Krishnaswamy 就此举的一个例子是,人工智能代理重新分享在喧闹环境中交流时可能遗漏的关键信息,或促使团队领导核实可能基于错误或不完整信息的关键细节(如敌人位置)。Krishnaswamy 表示,理解与群体凝聚力相关的“共同点”将是人工智能在这些情况下运作的关键。
Krishnaswamy 表示,他的团队将在未来几个月继续改进模型。他说,未来研究的一个潜在途径是了解某些类型的沟通如何影响群体决策。
“这个项目很好地结合了数据驱动工作和形式化建模,应用清晰。我们的下一步是考虑矛盾或不同的环境因素,看看模型如何反应,”他说。
页:
[1]