論文の概要: LogicTree: Structured Proof Exploration for Coherent and Rigorous Logical Reasoning with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.14089v1
- Date: Fri, 18 Apr 2025 22:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 05:20:44.789857
- Title: LogicTree: Structured Proof Exploration for Coherent and Rigorous Logical Reasoning with Large Language Models
- Title(参考訳): LogicTree: 大規模言語モデルを用いたコヒーレントで厳密な論理推論のための構造化された証明探索
- Authors: Kang He, Kaushik Roy,
- Abstract要約: LogicTreeは、アルゴリズム誘導探索を用いて構造化された証明探索を自動化する推論時モジュラーフレームワークである。
前提優先度付けのための2自由導出を導入し、戦略的証明探索を可能にする。
LogicTreeでは、GPT-4oは平均7.6%でo3-miniを上回っている。
- 参考スコア(独自算出の注目度): 7.967925911756304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved remarkable multi-step reasoning capabilities across various domains. However, LLMs still face distinct challenges in complex logical reasoning, as (1) proof-finding requires systematic exploration and the maintenance of logical coherence and (2) searching the right combination of premises at each reasoning step is inherently challenging in tasks with large premise space. To address this, we propose LogicTree, an inference-time modular framework employing algorithm-guided search to automate structured proof exploration and ensure logical coherence. Advancing beyond tree-of-thought (ToT), we incorporate caching mechanism into LogicTree to enable effective utilization of historical knowledge, preventing reasoning stagnation and minimizing redundancy. Furthermore, we address the combinatorial complexity of premise search by decomposing it into a linear process. The refined premise selection restricts subsequent inference to at most one derivation per step, enhancing reasoning granularity and enforcing strict step-by-step reasoning. Additionally, we introduce two LLM-free heuristics for premise prioritization, enabling strategic proof search. Experimental results on five datasets demonstrate that LogicTree optimally scales inference-time computation to achieve higher proof accuracy, surpassing chain-of-thought (CoT) and ToT with average gains of 23.6% and 12.5%, respectively, on GPT-4o. Moreover, within LogicTree, GPT-4o outperforms o3-mini by 7.6% on average.
- Abstract(参考訳): 大規模言語モデル (LLM) は、様々な領域にまたがる顕著な多段階推論機能を実現している。
しかしながら, LLM は複雑な論理的推論において, 体系的な探索と論理的一貫性の維持が必要であり, 2) 各推論段階における前提の適切な組み合わせの探索は, 大規模な前提空間を持つタスクにおいて本質的に困難である。
そこで我々は,アルゴリズム誘導探索を用いた推論時モジュラーフレームワークであるLogicTreeを提案し,構造化された証明探索を自動化し,論理コヒーレンスを確保する。
ToT(tree-of- Thought)を越えたキャッシング機構をLogicTreeに組み込んで,過去の知識を効果的に活用し,推論の停滞を防止し,冗長性を最小化する。
さらに,それを線形プロセスに分解することで,前提探索の組合せ複雑性に対処する。
洗練された前提選択は、後続の推論をステップ毎の少なくとも1つの導出に制限し、推論の粒度を高め、厳格なステップバイステップの推論を強制する。
さらに、前提優先度付けのための2つのLCMフリーヒューリスティックを導入し、戦略的証明探索を可能にした。
5つのデータセットの実験結果から、LogicTreeは予測時間計算を最適にスケールして高い証明精度を達成し、それぞれ23.6%と12.5%の平均ゲインでチェーン・オブ・シント(CoT)とToTを上回った。
さらにLogicTreeでは、GPT-4oは平均7.6%でo3-miniを上回っている。
関連論文リスト
- Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models [54.04678363287392]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な機能を示した。
OpenAI o1とDeepSeek-R1の最近の進歩は、System-2推論ドメインのパフォーマンスをさらに改善した。
論文 参考訳(メタデータ) (2025-03-20T17:59:38Z) - Dynamic Parallel Tree Search for Efficient LLM Reasoning [102.16694475391665]
Tree of Thoughts (ToT) は大規模言語モデル(LLM)推論を強化し、分散木としての問題解決を構造化する。
推論における推論経路を動的に最適化することを目的とした,新しい並列化フレームワークであるDynamic Parallel Tree Search (DPTS)を提案する。
Qwen-2.5とLlama-3のMath500とGSM8Kデータセットによる実験では、DPTSは平均で2-4倍効率が向上した。
論文 参考訳(メタデータ) (2025-02-22T14:13:37Z) - Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models [9.689096888732642]
本稿では,論理的情報記述を拡張的に生成するために,命題論理を用いた論理解(LoT)プロンプトを提案する。
LoTは5つの論理的推論タスクで顕著なマージンで、様々なプロンプトメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-09-26T04:59:45Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Self-Discover: Large Language Models Self-Compose Reasoning Structures [136.48389510481758]
タスク固有の推論構造を自己発見するフレームワークであるSELF-DISCOVERを紹介する。
SELF-DISCOVERは、挑戦的推論ベンチマークにおいて、GPT-4とPaLM 2の性能を大幅に改善する。
自己発見推論構造は、モデルファミリー全体にわたって普遍的に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-02-06T01:13:53Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - LogicNet: A Logical Consistency Embedded Face Attribute Learning Network [6.202893610948486]
論理的一貫性のためにデータチェックでトレーニングされたモデルが、一貫性のある予測を得られるようにするには、どうすればいいでしょうか?
本稿では,属性間の論理的関係を学習する逆学習フレームワークであるLogicNetを提案する。
実世界の事例分析では,本手法は他の手法と比較して平均失敗件数の50%以上削減できる。
論文 参考訳(メタデータ) (2023-11-19T03:20:20Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。