
ProtoReasoning:通过逻辑和规划磨练通用推理技能
三个要点
✔️ 提出了一个基于原型的 "ProtoReasoning "框架,使大规模语言模型能够有效地学习不同问题领域的推理能力
✔️ 利用Prolog和PDDL开发了逻辑推理和规划的原型表示,使模型能够增强对结构不同的问题的推理能力
✔️ 实验结果证实,与自然语言表示法相比,所提出的框架具有更好的泛化能力,并提高了不同任务的性能
ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs
written by Feng He, Zijun Chen, Xinnian Liang, Tingting Ma, Yunqi Qiu, Shuangzhi Wu, Junchi Yan
(Submitted on 18 Jun 2025)
Comments: Published on arxiv.
Subjects: Computation and Language (cs.CL)
code:![]()
本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。
概述
本文为巨型语言模型(LLMs)提出了一个新框架--原型推理(ProtoReasoning),使其具有概括和解决不同问题的能力。它的目标是该框架的核心是一个使用 Prolog 和 PDDL 等形式化语言的原型生成和验证系统。
Prolog 专门从事逻辑推理,通过将问题分解为逻辑事实和规则来解决问题。另一方面,PDDL 提供了一种规划表示法,并对类似于人类规划思维的过程进行建模。这样就可以针对不同的问题领域训练出具有灵活推理能力的模型。
实验结果表明,这种方法比传统方法效果更好,能有效提高逻辑推理和规划能力。这项研究为提高 LLM 的适应能力提供了新的基础,有望得到更广泛的应用。
建议采用的方法
我们提出了一个名为 "ProtoReasoning "的新框架来提高 LLM 的能力。该框架旨在利用原型表示模拟人类解决问题的能力。具体来说,我们利用形式语言 Prolog 和 PDDL 创建了一个生成原型并验证其正确性的系统。
Prolog 主要用于逻辑推理,有一种通过将问题分解为逻辑事实和规则来解决问题的方法。而 PDDL 则为规划提供了一种表示方法,并以人类的方式对规划进行建模。
将这两种语言结合起来,就可以提供具有推理能力的模型,并能灵活地适应不同的问题领域。
实验
本研究的实验检验了所提出的 ProtoReasoning 方法在提高推理能力方面的有效性。
首先,自然语言问题被转换成逻辑代码,逻辑推理使用 Prolog 格式,规划任务使用 PDDL 格式。这样就建立了一个能准确理解问题结构并自动生成正确答案的数据集。最后,我们准备了大约 4200 个 Prolog 问题和 2400 个 PDDL 问题,并分三个阶段对模型进行了训练。
训练结束后,根据常识、数学、逻辑推理和规划方面的基准进行了性能评估。结果表明,逻辑推理的成绩提高了 4.7%,规划任务的成绩提高了 6.3%。消融实验还表明,使用逻辑表征进行学习的效果不亚于或优于仅使用自然语言进行学习的效果。
该实验结果有力地证明了逻辑结构学习的有效性。
结论
在本文中,我们提出了一个名为 "ProtoReasoning "的新框架,旨在提高大型语言模型(LLM)泛化和解决各种问题的能力。
ProtoReasoning 利用原型表示法,并引入了模仿人类认知和解决问题能力的方法。该框架的核心是一个使用 Prolog 和 PDDL(一种形式化语言)的原型生成和验证系统。
Prolog 专门从事逻辑推理,并通过将问题分解为逻辑事实和规则来解决问题;PDDL 提供了一种规划表示法,并模拟了类似于人类规划思维的过程。这些语言可以结合起来,为不同的问题领域提供灵活的推理能力。
实验结果表明,这种方法的性能优于传统方法,能有效提高逻辑推理和规划能力。这项研究为提高 LLM 的适应能力提供了新的基础,并具有更广泛的应用潜力。
与本文相关的类别