Josiah02 发表于 2024-7-15 08:34:30

研究人员试图减少语音助手对多元文化用户的伤害

  Siri、Alexa 或 Google Assistant 等语音助手的用户都知道被机器误解的痛苦。
  但卡内基梅隆大学计算机学院人机交互研究所 (HCII) 的研究人员表示,对于那些缺乏标准美式口音的人来说,这种沟通不畅不仅会让人恼火,甚至会造成彻头彻尾的危险。
  在《计算机系统人为因素 CHI 会议论文集》上发表的一项新研究中,HCII 博士生 Kimi Wenzel 和副教授 Geoff Kaufman 确定了语音助手错误造成的六种下游危害,并制定了减少这些危害的策略。他们的工作获得了计算机协会计算机系统人为因素会议 ( CHI 2024 ) 的最佳论文奖。
  考夫曼说:“这篇论文是我们实验室一个更大研究项目的一部分,该项目旨在记录和了解技术中存在的偏见的影响。”
  在用于训练语音助手的大多数数据组中,白人美国人所占比例过高,研究表明,这些助手更有可能误解或误解黑人说话者以及口音或方言与标准美国人不同的人。
  考夫曼表示,早期研究人员倾向于将这个问题视为需要克服的技术问题,而不是对用户产生影响的故障。但无论是人还是机器,如果言语被误解,都可能被视为一种微侵犯。
  “这可能会对你的自尊心或归属感产生影响,”考夫曼说。
  在去年的一项对照实验中,考夫曼和温泽尔研究了语音助手的错误率对白人和黑人志愿者的影响。与错误率较低的黑人相比,错误率较高的黑人自我意识水平更高、自尊心更低、对科技的看法也更不乐观。无论错误率如何,白人都没有这种反应。
  温泽尔说:“我们假设,由于黑人更频繁地遭遇沟通不畅,或者在日常生活中遭遇更多种族歧视,这些经历会逐渐积累,他们会遭受更多负面影响。”
  在最新研究中,温泽尔和考夫曼采访了 16 名在使用语音助手时遇到问题的志愿者。他们发现,看似无害的语音助手错误可能会造成六种潜在危害。其中包括情感伤害以及微侵犯造成的文化或身份伤害。
  其中还包括关系伤害,即错误导致人际冲突。例如,语音助手可能会在日历中输入错误的会议时间或误导电话。
  其他危害包括为某项技术支付与其他人相同的价格,尽管它对您来说效果并不好,以及需要付出额外的努力(例如改变口音)才能使用该技术。
  第六种危害是身体受到危害。
  “语音技术不仅仅被用作智能手机中的简单语音助手,”温泽尔说。“它们越来越多地被用于更严肃的场合,例如医疗转录。”
  语音技术还可以与汽车导航系统结合使用,“而且风险非常高”,温泽尔补充道。
  接受研究采访的一位人士讲述了他们使用语音导航系统的惊险经历。“很多时候,我觉得我说话非常清楚、声音很大,但它还是听不懂我的话。我不知道发生了什么。我不知道我要去哪里。所以,这就是这种令人沮丧的经历,非常危险和令人困惑。”
  最终的解决方案是消除语音技术中的偏见,但温泽尔表示,创建代表人类所有差异的数据集是一项令人困惑的任务。因此,她和考夫曼与参与者讨论了语音助手可以对用户说些什么来减轻这些伤害。
  他们确定的一种沟通修复策略是责任转移——不是简单的道歉,而是描述错误的解释,而不是将责任推给用户。
  Wenzel 和 Kaufmann 还建议语音技术应更具文化敏感性。解决文化伤害在一定程度上受到技术的限制,但一个简单而深刻的行动是增加专有名词的数据库。
  研究人员在论文中指出:“对非英语名字的错误识别一直对许多语言技术造成持续的危害。”
  考夫曼表示,大量社会心理学研究表明,自我肯定(即个人价值观或信仰的陈述)在身份受到威胁时可以起到保护作用。他和温泽尔正在寻找语音助手在与用户对话中加入肯定语的方法,最好是以用户难以察觉的方式。温泽尔目前正在后续研究中测试其中一些肯定语。
  在所有这些对话干预中,简洁是最重要的。毕竟,人们经常使用语音技术,希望提高效率或能够免提工作。在对话中添加消息往往会违背这一目标。
  “这是我们面临的一个设计挑战:我们如何强调责任在于技术而不是用户?如何用尽可能少的语言尽可能清楚地强调这一点?”温泽尔说。“现在,技术说‘对不起’,但我们认为它应该做的不止于此。”

页: [1]
查看完整版本: 研究人员试图减少语音助手对多元文化用户的伤害