論文の概要: Adaptive LLM-Symbolic Reasoning via Dynamic Logical Solver Composition
- arxiv url: http://arxiv.org/abs/2510.06774v1
- Date: Wed, 08 Oct 2025 08:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.373765
- Title: Adaptive LLM-Symbolic Reasoning via Dynamic Logical Solver Composition
- Title(参考訳): 動的論理解法合成によるLLM-Symbolic Reasoning
- Authors: Lei Xu, Pierre Beckmann, Marco Valentino, André Freitas,
- Abstract要約: 適応的,多パラダイム,ニューロシンボリック推論フレームワークを導入する。
自然言語で表現された問題から、形式的推論戦略を自動的に識別する。
また、動的に選択し、特別な形式論理解法を適用する。
- 参考スコア(独自算出の注目度): 34.80697570181662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuro-symbolic NLP methods aim to leverage the complementary strengths of large language models and formal logical solvers. However, current approaches are mostly static in nature, i.e., the integration of a target solver is predetermined at design time, hindering the ability to employ diverse formal inference strategies. To address this, we introduce an adaptive, multi-paradigm, neuro-symbolic inference framework that: (1) automatically identifies formal reasoning strategies from problems expressed in natural language; and (2) dynamically selects and applies specialized formal logical solvers via autoformalization interfaces. Extensive experiments on individual and multi-paradigm reasoning tasks support the following conclusions: LLMs are effective at predicting the necessary formal reasoning strategies with an accuracy above 90 percent. This enables flexible integration with formal logical solvers, resulting in our framework outperforming competing baselines by 27 percent and 6 percent compared to GPT-4o and DeepSeek-V3.1, respectively. Moreover, adaptive reasoning can even positively impact pure LLM methods, yielding gains of 10, 5, and 6 percent on zero-shot, CoT, and symbolic CoT settings with GPT-4o. Finally, although smaller models struggle with adaptive neuro-symbolic reasoning, post-training offers a viable path to improvement. Overall, this work establishes the foundations for adaptive LLM-symbolic reasoning, offering a path forward for unifying material and formal inferences on heterogeneous reasoning challenges.
- Abstract(参考訳): ニューロシンボリックNLP法は,大規模言語モデルと形式論理解法の相補的強みを活用することを目的としている。
しかし、現在のアプローチは本質的に静的であり、すなわち、ターゲットソルバの統合は設計時に規定され、多様な形式推論戦略を採用する能力を妨げる。
そこで本研究では,(1)自然言語で表現された問題から形式的推論戦略を自動的に識別し,(2)自動形式化インタフェースを用いて動的に形式的論理解法を選択し,適用する,適応的で多パラダイムなニューロシンボリック推論フレームワークを提案する。
LLMは必要な形式的推論戦略を90%以上の精度で予測するのに効果的です。
これにより、フォーマルな論理解法との柔軟な統合が可能になり、GPT-4oとDeepSeek-V3.1と比較して、我々のフレームワークは競合するベースラインを27%、6%上回った。
さらに、適応推論は純粋なLCM法にも積極的に影響を与え、GPT-4oによるゼロショット、CoT、シンボリックCoT設定では10,5,6%の利得が得られる。
最後に、より小さなモデルでは適応的なニューロシンボリック推論に苦しむが、ポストトレーニングは改善への有効な道を提供する。
全体として、この研究はLLM-シンボリック推論の適応の基礎を確立し、物質を統一するための経路と異種推論の形式的推論を提供する。
関連論文リスト
- Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - Plan before Solving: Problem-Aware Strategy Routing for Mathematical Reasoning with LLMs [49.995906301946]
既存の手法は通常、数学的推論を行うためにLLM(Large Language Models)をガイドするための固定戦略を利用する。
分析の結果,単一戦略は問題固有の要件に適応できず,有効性と効率性のトレードオフを見落としていることが明らかとなった。
本稿では,PRISM(Planning and Routing through Instance-Specific Modeling)を提案する。
論文 参考訳(メタデータ) (2025-09-29T07:22:41Z) - Explainable Rule Application via Structured Prompting: A Neural-Symbolic Approach [0.0]
大規模言語モデル(LLM)は複雑な推論タスクでは優れているが、一貫性のあるルールアプリケーション、例外処理、説明可能性に苦慮している。
本稿では、推論を3つの検証可能なステップ(エンティティ識別、プロパティ抽出、シンボリックルール適用)に分解する構造化プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T14:14:01Z) - Route to Reason: Adaptive Routing for LLM and Reasoning Strategy Selection [7.045509749924679]
Route-To-Reason(RTR)は、予算制約下でのタスク難易度に応じて、LMと推論戦略の両方を動的に割り当てる新しい統一ルーティングフレームワークである。
RTRは、専門家モデルと推論戦略の両方の圧縮された表現を学び、推論時に共同で適応的な選択を可能にする。
論文 参考訳(メタデータ) (2025-05-26T02:53:17Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - Teaching LLMs According to Their Aptitude: Adaptive Reasoning for Mathematical Problem Solving [55.895917967408586]
大規模な言語モデルによる数学的推論への既存のアプローチは、一般化可能性(英語版)にはChain-of-Thought(英語版)(CoT)、正確な計算にはTool-Integrated Reasoning(英語版)(TIR)に依存している。
本稿では, LLM が自然に推論戦略をパーソナライズできる適応型フレームワークである TATA (Teaching LLMs according their Aptitude) を提案する。
論文 参考訳(メタデータ) (2025-02-17T16:56:23Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Autoformalization of Game Descriptions using Large Language Models [3.5083201638203154]
ゲーム理論シナリオの自動形式化のためのフレームワークを提案する。
これは、自然言語の記述を形式的解法に適した形式論理表現に変換する。
GPT-4oと自然言語問題記述のデータセットを用いたフレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-09-18T20:18:53Z) - Logic Agent: Enhancing Validity with Logic Rule Invocation [24.815341366820753]
Chain-of-Thoughtプロンプトは、推論タスク中に言語モデルの推論能力を増強するための重要なテクニックとして現れている。
本稿では,大規模言語モデルにおける推論プロセスの有効性向上を目的としたエージェントベースのフレームワークであるLogic Agent(LA)を紹介する。
論文 参考訳(メタデータ) (2024-04-28T10:02:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。