Josiah02 发表于 2024-9-19 12:36:00

人工智能如何帮助阻止错误信息的传播

加州大学圣地亚哥分校拉迪管理学院的最新研究表明,机器学习算法在高风险战略互动中检测谎言的能力明显优于人类判断。
这项研究可能对虚假信息的传播产生重大影响,因为机器学习可用于加强减少 YouTube、Tik-Tok 和 Instagram 等主要平台上的虚假内容的努力。
该研究将发表在《管理科学》杂志上,并以工作论文的形式提供,研究重点关注了 2007 年至 2010 年播出的英国热门电视节目“金球”中的参与者发现谎言的能力。研究发现,尽管人类很难预测参赛者的欺骗行为,但算法的表现要好得多。
“我们发现,当一个人有欺骗行为时,会有一些‘迹象’,”这项研究的主要作者、加州大学圣地亚哥分校拉迪管理学院行为经济学副教授玛塔·塞拉加西亚 (Marta Serra-Garcia) 说。
“例如,如果某人更快乐,那么他们说的是实话,而且当我们诚实并说真话时,我们人类都会有其他视觉、口头和声音的暗示。算法在揭示这些相关性方面做得更好。”
研究中使用的算法实现了令人印象深刻的准确率,74% 的时间正确预测参赛者的行为,而参与研究的 600 多名人类的准确率仅为 51%-53%。
除了比较机器学习和人类检测谎言的能力之外,该研究还测试了如何利用算法来帮助人们更好地区分说谎者和说真话的人。
在一项实验中,两组不同的研究参与者观看了同一组“金球”剧集。其中一组参与者在观看之前,会通过机器学习标记视频。标记表明算法预测参赛者最有可能撒谎。
另一组人观看了同一段视频,观看后,他们被告知算法已将视频标记为欺骗。如果参与者在观看视频之前收到标记信息,他们更有可能相信机器学习的见解并更好地预测谎言。
“在采纳算法建议时,时机至关重要,”塞拉-加西亚说。“我们的研究结果表明,如果在决策过程的早期就提供算法建议,参与者更有可能依赖这些建议。这对于 YouTube 和 TikTok 等在线平台尤其重要,因为它们可以使用算法来标记潜在的欺骗性内容。”
联合作者、拉迪学院行为经济学教授 Uri Gneezy 补充道:“我们的研究表明,这些在线平台可以在用户接触内容之前而不是之后显示算法警告,从而提高其标记系统的有效性,这可能会导致错误信息的传播速度变慢。”
一些社交媒体网站已经在使用算法来检测可疑内容,但在许多情况下,视频必须由用户举报,然后由工作人员调查,工作人员可以标记内容或将其删除。这些流程可能会被拖延,因为 TikTok 等科技公司的员工在调查工作中负担过重。
作者总结道:“我们的研究表明技术如何增强人类的决策能力,这是当人工智能可以提供帮助时人类如何与人工智能互动的一个例子。我们希望这些发现可以帮助组织和平台更好地设计和部署机器学习工具,特别是在准确决策至关重要的情况下。”

页: [1]
查看完整版本: 人工智能如何帮助阻止错误信息的传播