新研究发现人工智能不会对人类构成生存威胁
根据巴斯大学和德国达姆施塔特工业大学的最新研究,ChatGPT 和其他大型语言模型 (LLM) 无法独立学习或获得新技能,这意味着它们不会对人类构成生存威胁。这项研究于今日作为计算语言学协会第 62 届年会(ACL 2024)论文集的一部分发表,该会议是自然语言处理领域的顶级国际会议。该研究表明,法学硕士具有遵循指示和语言熟练程度的表面能力,但是,如果没有明确的指导,他们就没有掌握新技能的潜力。这意味着他们本质上仍然是可控的、可预测的和安全的。
研究小组得出的结论是,虽然这项技术仍有可能被滥用,但基于越来越大的数据集进行训练的 LLM 可以继续部署,而不用担心安全问题。
随着成长,这些模型可能会生成更复杂的语言,并更好地遵循明确和详细的提示,但它们不太可能获得复杂的推理技能。
巴斯大学计算机科学家、法学硕士“新兴能力”新研究的共同作者哈里什·塔亚尔·马达布希博士说:“这种人工智能对人类构成威胁的主流观点阻碍了这些技术的广泛采用和发展,也分散了我们对真正需要关注的问题的注意力。”
由德国达姆施塔特工业大学 Iryna Gurevych 教授领导的合作研究团队进行了实验,测试 LLM 完成模型从未遇到过的任务的能力,即所谓的突发能力。
举例来说,法学硕士可以回答有关社交情况的问题,而无需接受过明确的训练或编程。虽然先前的研究表明,这是模型“了解”社交情况的结果,但研究人员表明,这实际上是模型使用法学硕士众所周知的能力的结果,即根据呈现给它们的几个例子完成任务,即“情境学习”(ICL)。
Harish Tayyar Madabushi 博士介绍了法学硕士的优点、缺点和局限性。图片来源:巴斯大学
通过数千次实验,该团队证明,LLM 的遵循指令的能力 (ICL)、记忆力和语言能力的结合可以解释 LLM 所展现的能力和局限性。
Tayyar Madabushi 博士说:“人们一直担心,随着模型变得越来越大,它们将能够解决我们目前无法预测的新问题,这就带来了威胁,即这些更大的模型可能会获得包括推理和规划在内的危险能力。
“这引发了很多讨论——例如,在去年布莱切利园举行的人工智能安全峰会上,我们被要求发表评论——但我们的研究表明,担心一个模型会消失并做出一些完全出乎意料、创新且具有潜在危险的事情是没有道理的。
“对法学硕士带来的生存威胁的担忧并不局限于非专家,世界各地的一些顶尖人工智能研究人员也表达了这种担忧。”
更多信息: 大型语言模型中的新兴能力仅仅是情境学习吗?aclanthology.org/2024.acl-long.279/
页:
[1]