Josiah02 发表于 2024-9-2 16:24:00

探索法学硕士的基本推理能力

推理是人类在心理上处理信息以得出特定结论或解决问题的过程,可分为两大类。第一种推理称为演绎推理,即从一般规则或前提出发,然后利用该规则得出关于具体案例的结论。
例如,这可能意味着在“所有的狗都有耳朵”和“吉娃娃是狗”的前提下,得出“吉娃娃有耳朵”的结论。
第二种广泛使用的推理形式是归纳推理,它是基于具体观察进行概括(即制定一般规则)。例如,这可能意味着假设所有天鹅都是白色的,因为我们一生中遇到的所有天鹅都是白色的。
过去有许多研究调查了人类在日常生活中如何使用演绎推理和归纳推理。然而,迄今为止,人工智能(AI) 系统使用这些不同推理策略的程度却很少被探索。
亚马逊和加州大学洛杉矶分校的研究团队最近进行了一项研究,探索大型语言模型 (LLM) 的基本推理能力,大型人工智能系统可以处理、生成和改编人类语言的文本。他们的研究结果发布在arXiv预印本服务器上,表明这些模型具有强大的归纳推理能力,但它们的演绎推理能力往往较差。
本文的目的是更好地理解法学硕士推理中的差距,并找出为什么法学硕士在偏离常态的“反事实”推理任务中表现较低。
该团队的归纳推理框架 SolverLearner 概述。SolverLearner 遵循两步流程,将输入输出映射函数的学习与这些函数的推理应用分开。具体来说,函数是通过外部代码解释器应用的,以避免纳入基于 LLM 的演绎推理。图片来源:Cheng 等人
以往多项研究通过测试法学硕士学生遵循指令的能力作为基本推理任务的一部分来评估他们的演绎推理能力。但他们的归纳推理能力(即根据过去处理的信息做出一般预测的能力)尚未得到仔细研究。
为了明确区分归纳推理和演绎推理,研究人员引入了一个名为 SolverLearner 的新模型。该模型采用两步法将学习规则的过程与将规则应用于具体案例的过程分开。亚马逊发言人表示,具体来说,规则是通过代码解释器等外部工具应用的,以避免依赖 LLM 的演绎推理能力。
亚马逊团队利用他们开发的 SolverLearner 框架,训练 LLM 学习将输入数据点映射到其相应输出的函数,并使用具体示例。这反过来又使他们能够调查模型根据提供给它们的示例学习一般规则的程度。
研究人员发现,法学硕士的归纳推理能力比演绎推理能力更强,尤其是对于涉及偏离常态的“反事实”情景的任务。这些发现可以帮助人们更好地理解何时以及如何使用法学硕士。例如,在设计聊天机器人等代理系统时,最好利用法学硕士强大的归纳能力。
总体而言,研究人员发现,法学硕士在归纳推理任务中表现优异,但他们往往缺乏演绎推理能力。他们的演绎推理在基于假设或偏离常态的情景中似乎尤其糟糕。
本研究的结果可以启发人工智能开发人员利用 LLM 强大的归纳推理能力来解决特定任务。此外,它们还可以为进一步理解 LLM 推理过程铺平道路。
据亚马逊发言人称,未来该领域的研究可以集中于探索法学硕士压缩信息的能力与其强大的归纳推理能力之间的关系。这种视角可能会进一步提高法学硕士的归纳推理能力。

页: [1]
查看完整版本: 探索法学硕士的基本推理能力