找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 37|回复: 0

团队提出了一个推理框架,旨在提高 LLM 的可靠性和可追溯性

[复制链接]

1744

主题

0

回帖

3488

积分

管理员

积分
3488
发表于 2024-8-1 08:16:19 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
  中国科技公司百度的人工智能研究团队正在提出一种新的推理框架,旨在提高法学硕士的可靠性和可追溯性。该团队在arXiv预印本服务器上发表了一篇论文,阐述了他们的想法。
  在过去的几年里,ChatGPT 等 LLM 已经成为主流应用,用户利用它们的功能来编写文档、创建图像甚至创作歌曲。
  但 LLM 仍有一个明显的弱点——无法检查自己的结果,以确保它们不会偶尔向用户呈现“幻觉”,即毫无意义的结果。这一弱点使得 AI 应用无法用于更依赖数据完整性的关键应用。
  在这次新的努力中,百度团队制定了一项策略,旨在迫使法学硕士在向最终用户展示结果之前检查他们的工作。
  新方法涉及在呈现结果之前向 LLM 引擎添加一个三步流程。第一步是添加一个相关性感知模型来评估结果并根据其与用户提示的相关性进行判断。第二步涉及证据感知选择选项,其中选择相关文档进行引用,并呈现摘录作为答案正确性的证据。第三步涉及轨迹分析模块,该模块根据前两个模块的结果进行清晰简洁的分析。然后它为用户提供最终答案。
  研究团队表示,这种方法将迫使 LLM 更加了解提供给用户的答案,最终应该会提高准确性。该团队还通过在 LLM 中添加测试模块然后编写提示来测试他们的想法。他们声称改进后的 LLM 能够使用小得多的训练数据集超越 GPT-4。
  研究人员表示,他们这样的框架可以带来更可靠的 LLM,从而使其适合更多应用。他们还表示,他们将向更多目前无法获得大量训练数据集的玩家开放这一领域。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2024-9-29 06:23 , Processed in 0.091414 second(s), 20 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表