論文の概要: IFDNS: An Iterative Feedback-Driven Neuro-Symbolic Method for Faithful Logical Reasoning
- arxiv url: http://arxiv.org/abs/2601.07464v1
- Date: Mon, 12 Jan 2026 12:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.370748
- Title: IFDNS: An Iterative Feedback-Driven Neuro-Symbolic Method for Faithful Logical Reasoning
- Title(参考訳): IFDNS: 忠実な論理的推論のための反復的フィードバック駆動型ニューロシンボリック法
- Authors: Xiaoheng Wang, Tongxuan Liu, Zi Gong, Xianzhe Dong, Yuting Zeng, Minhan Hu, Weizhe Huang, Jing Li,
- Abstract要約: Iterative Feedback-Driven Neuro-Symbolic (IFDNS) はマルチラウンドフィードバック機構を用いた新しいプロンプトベースの手法である。
IFDNSは自己整合性(CoT-SC)と自己整合性(CoT-SC)の整合性(CoT-SC)を大幅に向上させる
6つのデータセットに対する実証的な評価は、CoTとCoT-SCの性能を大幅に向上させるIFDNSの有効性を示す。
- 参考スコア(独自算出の注目度): 6.284550894333317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities across a wide range of reasoning tasks, including logical and mathematical problem-solving. While prompt-based methods like Chain-of-Thought (CoT) can enhance LLM reasoning abilities to some extent, they often suffer from a lack of faithfulness, where the derived conclusions may not align with the generated reasoning chain. To address this issue, researchers have explored neuro-symbolic approaches to bolster LLM logical reasoning capabilities. However, existing neuro-symbolic methods still face challenges with information loss during the process. To overcome these limitations, we introduce Iterative Feedback-Driven Neuro-Symbolic (IFDNS), a novel prompt-based method that employs a multi-round feedback mechanism to address LLM limitations in handling complex logical relationships. IFDNS utilizes iterative feedback during the logic extraction phase to accurately extract causal relationship statements and translate them into propositional and logical implication expressions, effectively mitigating information loss issues. Furthermore, IFDNS is orthogonal to existing prompt methods, allowing for seamless integration with various prompting approaches. Empirical evaluations across six datasets demonstrate the effectiveness of IFDNS in significantly improving the performance of CoT and Chain-of-Thought with Self-Consistency (CoT-SC). Specifically, IFDNS achieves a +9.40% accuracy boost for CoT on the LogiQA dataset and a +11.70% improvement for CoT-SC on the PrOntoQA dataset.
- Abstract(参考訳): 大規模言語モデル(LLM)は、論理的および数学的問題解決を含む幅広い推論タスクにおいて、印象的な能力を示している。
Chain-of-Thought (CoT)のようなプロンプトベースの手法はLLM推論能力をある程度向上させることができるが、導出した結論が生成された推論連鎖と一致しないような忠実さの欠如に悩まされることが多い。
この問題に対処するため、研究者らはLLM論理推論能力を活性化するための神経象徴的アプローチを探求した。
しかし、既存のニューロシンボリック法は、プロセス中に情報損失を伴う課題に直面している。
これらの制限を克服するために,複雑な論理的関係を扱う上で,複数ラウンドのフィードバック機構を利用する新しいプロンプトベースの手法であるIFDNS(Iterative Feedback-Driven Neuro-Symbolic)を導入する。
IFDNSは論理抽出段階の反復的フィードバックを利用して因果関係文を正確に抽出し、命題的および論理的含意表現に変換することにより、情報損失問題を効果的に軽減する。
さらに、IFDNSは既存のプロンプトメソッドと直交しており、様々なプロンプトアプローチとのシームレスな統合を可能にする。
6つのデータセットにまたがる実証的な評価は、IFDNSがCoTとChain-of-Thought with Self-Consistency (CoT-SC)の性能を大幅に向上することを示す。
具体的には、IFDNSはLogiQAデータセット上のCoTの+9.40%精度向上とPrOntoQAデータセット上のCoT-SCの+11.70%改善を実現している。
関連論文リスト
- OrLog: Resolving Complex Queries with LLMs and Probabilistic Reasoning [51.58235452818926]
そこで我々は,論理的推論から述語レベルの妥当性推定を分離するニューロシンボリック検索フレームワークOrLogを紹介する。
大規模言語モデル (LLM) は1つの復号のない前方通過において原子述語に対する可視性スコアを提供し、確率論的推論エンジンはクエリ満足度の後方確率を導出する。
論文 参考訳(メタデータ) (2026-01-30T15:31:58Z) - A Balanced Neuro-Symbolic Approach for Commonsense Abductive Logic [21.003276503456632]
本稿では,大規模言語モデルによって提供されるコモンセンス関係を用いて論理問題を拡張するための新しい手法を提案する。
これは、有用な事実を見つける可能性を最大化するために、潜在的コモンセンス仮定による探索手順を含む。
論文 参考訳(メタデータ) (2026-01-26T15:40:26Z) - Making Mathematical Reasoning Adaptive [61.45161826629692]
大規模言語モデル(LLM)における適応推論を実現するためのAdaRフレームワークを提案する。
AdaRは可変値によって論理的に等価なクエリを合成し、これらのデータに基づいてRLVRでモデルを訓練し、スプリアス論理をペナルライズする。
実験により, AdaRはロバスト性や一般化を向上し, 数学的推論の大幅な改善を実現していることが示された。
論文 参考訳(メタデータ) (2025-10-06T09:30:05Z) - Pushing LLMs to Their Logical Reasoning Bound: The Role of Data Reasoning Intensity [59.27594125465172]
データ推論強度 (Data Reasoning Intensity, DRI) は, サンプルの潜在論理的推論複雑性を定量化する新しい指標である。
次に、学習データの論理的推論強度を体系的に強化する再認識最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-09-29T14:20:04Z) - Robustness of Neurosymbolic Reasoners on First-Order Logic Problems [10.709769083243172]
NLPの最近のトレンドは、Large Language Models (LLMs)における推論能力の向上を目指している。
対実的タスクの変種は、最小限だが意味論的に意味のある変更を、他の有効な一階述語論理問題インスタンスに導入する。
以前の研究では、LLMは反ファクトの変動に弱いことが示されており、しばしば反応を生成するために急激な表面パターンに依存していることが示唆された。
論文 参考訳(メタデータ) (2025-09-22T06:35:27Z) - Do LLMs Dream of Discrete Algorithms? [0.7646713951724011]
大規模言語モデル(LLM)は、人工知能の風景を急速に変化させてきた。
確率的推論への依存は、厳密な論理的推論を必要とする領域における有効性を制限する。
本稿では,論理ベースの推論モジュールでLLMを増強するニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-29T22:03:01Z) - Chain-of-Code Collapse: Reasoning Failures in LLMs via Adversarial Prompting in Code Generation [0.3495246564946556]
大規模言語モデル(LLM)は複雑な推論を必要とするタスクにおいて顕著な成功を収めた。
これらのモデルは本当に理由があるのか、それとも浅い統計パターンを利用するだけなのか?
ここでは、意味論的に忠実だが逆向きに構造化された急激な摂動のスイートを導入することで、LCMの推論の堅牢性について検討する。
論文 参考訳(メタデータ) (2025-06-08T02:43:46Z) - Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models [9.689096888732642]
本稿では,論理的情報記述を拡張的に生成するために,命題論理を用いた論理解(LoT)プロンプトを提案する。
LoTは5つの論理的推論タスクで顕著なマージンで、様々なプロンプトメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-09-26T04:59:45Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large
Language Model Signals for Science Question Answering [59.63860993280275]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
LLM信号を用いた科学質問応答の指導を目的とした,T-SciQと呼ばれる新しい手法を提案する。
提案手法は,ScienceQAベンチマークで96.18%の精度で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-05T11:56:30Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。