Josiah02 发表于 2024-8-16 07:58:34

研究强调了使大型语言模型值得信赖的挑战和解决方案

随着大型语言模型 (LLM) 的普及,劳伦斯利弗莫尔国家实验室的研究人员正在仔细研究这些人工智能 (AI) 系统在可测量的审查下的表现。
LLM 是经过大量数据训练的生成式 AI 工具,用于对查询生成基于文本的响应。这项技术有潜力以多种方式加速科学研究,从网络安全应用到自主实验。但即使十亿参数模型已经在数万亿个数据点上进行了训练,我们还能依赖它的答案吗?
两篇利弗莫尔合作撰写的论文被接受参加2024 年国际机器学习会议,论文探讨了 LLM 的可信度(模型如何使用数据并做出决策)。
“这项技术发展势头强劲,我们可以让它变得更好、更安全。”两篇论文的共同作者 Bhavya Kailkhura 表示。
更有效的模型
对大量数据进行训练并不能确认模型的可靠性。例如,有偏见或隐私的信息可能会污染训练数据集,或者模型可能无法检测到用户查询中的错误信息。尽管 LLM 在规模扩大后有了显著的改进,但较小的模型有时表现优于较大的模型。最终,研究人员面临着衡量可靠性和定义这样做的标准这两大挑战。
在《TrustLLM:大型语言模型中的可信度》一文中,Kailkhura 与来自世界各地的大学和研究机构的合作者一起开发了一个全面的可信度评估框架。他们从八个可信度维度研究了 16 个主流 LLM(其中包括 ChatGPT、Vicuna 和 Llama2),并使用 30 个公共数据集作为一系列从简单到复杂任务的基准。该研究成果发表在arXiv预印本服务器上。
这项研究由利哈伊大学牵头,深入探讨了模型的可信度。作者从大量有关法学硕士的科学文献中收集了评估指标,回顾了过去五年发表的 600 多篇论文。
凯尔胡拉表示:“这是一项大规模的努力,你无法独自解决这些问题。”
该团队最终提出的 TrustLLM 框架定义了以下维度。公平模型应避免歧视性结果,例如拒绝回应人口刻板印象或性别偏见。机器伦理衡量模型对人类道德和情感的认知,例如,如果用户的查询暗示伤害他人,则辨别是非。隐私衡量模型是否会泄露敏感信息,即使训练数据集包含电话号码等。
此外,稳健性是指模型处理异常或意外数据的能力,安全性是指模型对数据操纵或利用尝试(例如要求提供爆炸装置原料)的适应能力。真实的模型会呈现事实,说明其局限性(例如,如果被问及快速变化的当前事件),并且不会“产生幻觉”产生不准确或无意义的信息。
由于法学硕士项目复杂且规模庞大,另外两个维度更难衡量。问责制意味着提供产出的来源,而透明度则指对决策步骤和理由的详细解释。
这些标准非常高。正如最近与版权相关的头条新闻所指出的那样,法学硕士不会引用其来源,其所有者也不对合并的数据集承担责任。此外,训练数据集可能包含任意数量的缺陷,无论是无辜的还是对抗性的。一个合理的道德模型可能会容易受到攻击。
“你不能只看可信度的某个方面。你必须看模型在所有指标上的表现,”Kailkhura 说。
TrustLLM 评估结果好坏参半。大多数模型在被要求遵守隐私政策时拒绝提供私人信息,多项选择题的答案比开放式问题的答案更准确。专有(闭源)模型的表现往往优于开源模型,Kailkhura 表示这可以归因于公司在开发方面的投资。
尽管如此,在识别刻板印象方面表现最好的模型也只达到了 65% 的准确率,而且在面对意外数据时,不同模型的表现差异很大。该团队还注意到一种过度对齐的趋势,即模型的安全分数被误报所填充。
图片来源:arXiv (2024)。DOI:10.48550/arxiv.2403.15447
根据 TrustLLM 基准,所有测试模型均不真正值得信赖。但好消息是,这项研究揭示了这些模型的不足之处,这可以鼓励 LLM 开发人员在继续改进技术时关注可信度。
凯尔胡拉说:“法学硕士是实验室及其国家安全应用日益重要的基础模型,这也是我们的人工智能安全研究至关重要的原因。”
更高效的模型
随着 LLM 规模的扩大,计算性能将继续带来挑战。另一篇会议论文研究了压缩背景下的可信度,其中修改了模型以减少提高效率所需的数据量和计算资源。
例如,将模型从 130 亿个参数压缩到 70 亿个参数可以将其延迟减少一半,具体取决于运行该模型的计算硬件。最先进的压缩技术旨在提高模型的响应速度,但它们通常优先考虑性能而不是可靠的结果。
“我们的研究为在整个实验室的研究项目或应用中生成轻量级、值得信赖的 LLM 提供了实用指导,”James Diffenderfer 说道,他与 Kailkhura、Brian Bartoldson 和来自几所大学的同事共同撰写了《解码压缩信任:审查压缩下高效 LLM 的可信度》。该团队将五种压缩技术应用于领先的 LLM,测试了对各种可信度指标的影响。该研究发表在arXiv预印本服务器上。
这项工作建立在卷积神经网络 (CNN) 的先前研究基础上,采用了诸如修剪(从模型中删除不必要的参数)和量化(降低模型的计算精度)等压缩技术——这两种技术都可以单独或组合应用于 LLM。
“利弗莫尔过去对 CNN 的研究表明,这些技术可能会影响准确性和稳健性,”迪芬德弗说。“为了通过压缩使 LLM 更加普及和可用,进行这些研究并确定在不降低其可信度的情况下使 LLM 更高效的策略非常重要。”
该团队发现,通过量化进行压缩通常比通过修剪进行压缩效果更好,也就是说,模型在信任指标上的得分更高。此外,他们还发现,与采用 3 位和 8 位压缩的模型相比,4 位量化模型在某些信任度任务上的表现有所提高。例如,即使在相同的压缩级别下,一些模型在道德和公平任务上的得分较高,而在隐私任务上的得分较低。
“对每项任务性能的影响因用于压缩 LLM 的量化算法而异,”Diffenderfer 说道。“某些形式的压缩更适合部署轻量级 LLM,而不会过度损害其可靠性。”
在某些情况下,压缩甚至可以提高模型的可信度。然而,过度压缩可能会适得其反,因为可信度分数在某个点之后会下降。
“我们想找到那条线。在它们开始变得不那么有用之前,我们可以将这些 LLM 压缩到什么程度?”他说。
LLM 的快速发展在研究人员解答现有问题的同时,也引发了新的问题。随着 AI/ML 社区和顶级会议越来越重视这项技术,了解 LLM 的工作原理是发挥其潜力的关键。
“通过进行大规模实证研究,我们观察到某些压缩算法可以提高 LLM 的性能,而其他压缩算法则会损害性能,”Diffenderfer 说。“这些结果对于未来生成高效、值得信赖的模型或设计本质上更高效、更值得信赖的改进架构非常有价值。”
更有价值的模型
利弗莫尔的法学硕士研究不仅限于这些论文,还揭示了对人工智能安全这一高风险领域的重要见解,而人工智能安全正是 2023 年 10 月白宫行政命令的重点。实验室指导的研究与开发计划资助解决不同安全方面的项目,实验室的专家不断探索如何最大限度地发挥人工智能/机器学习的优势,同时最大限度地降低风险。(请访问数据科学研究所的网站,查看有关这些主题的知名出版物列表。)
“任何重大技术突破都会产生积极和消极影响。在能源部和国家安全背景下,人工智能技术肩负着确保安全的责任,”凯尔胡拉说。“我已经研究这个问题有一段时间了,我非常有信心,我们将改进强大的人工智能模型,并用它们解决关键的科学挑战。我们需要积极主动,迅速采取行动。”
更多信息: Lichao Sun 等人,TrustLLM:大型语言模型中的可信度,arXiv (2024)。DOI :10.48550/arxiv.2401.05561
Junyuan Hong 等人,解码压缩信任:审查压缩下高效 LLM 的可信度,arXiv (2024)。DOI :10.48550/arxiv.2403.15447
期刊信息: arXiv

页: [1]
查看完整版本: 研究强调了使大型语言模型值得信赖的挑战和解决方案