論文の概要: IFDNS: An Iterative Feedback-Driven Neuro-Symbolic Method for Faithful Logical Reasoning
- arxiv url: http://arxiv.org/abs/2601.07464v1
- Date: Mon, 12 Jan 2026 12:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.370748
- Title: IFDNS: An Iterative Feedback-Driven Neuro-Symbolic Method for Faithful Logical Reasoning
- Title(参考訳): IFDNS: 忠実な論理的推論のための反復的フィードバック駆動型ニューロシンボリック法
- Authors: Xiaoheng Wang, Tongxuan Liu, Zi Gong, Xianzhe Dong, Yuting Zeng, Minhan Hu, Weizhe Huang, Jing Li,
- Abstract要約: Iterative Feedback-Driven Neuro-Symbolic (IFDNS) はマルチラウンドフィードバック機構を用いた新しいプロンプトベースの手法である。
IFDNSは自己整合性(CoT-SC)と自己整合性(CoT-SC)の整合性(CoT-SC)を大幅に向上させる
6つのデータセットに対する実証的な評価は、CoTとCoT-SCの性能を大幅に向上させるIFDNSの有効性を示す。
- 参考スコア(独自算出の注目度): 6.284550894333317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities across a wide range of reasoning tasks, including logical and mathematical problem-solving. While prompt-based methods like Chain-of-Thought (CoT) can enhance LLM reasoning abilities to some extent, they often suffer from a lack of faithfulness, where the derived conclusions may not align with the generated reasoning chain. To address this issue, researchers have explored neuro-symbolic approaches to bolster LLM logical reasoning capabilities. However, existing neuro-symbolic methods still face challenges with information loss during the process. To overcome these limitations, we introduce Iterative Feedback-Driven Neuro-Symbolic (IFDNS), a novel prompt-based method that employs a multi-round feedback mechanism to address LLM limitations in handling complex logical relationships. IFDNS utilizes iterative feedback during the logic extraction phase to accurately extract causal relationship statements and translate them into propositional and logical implication expressions, effectively mitigating information loss issues. Furthermore, IFDNS is orthogonal to existing prompt methods, allowing for seamless integration with various prompting approaches. Empirical evaluations across six datasets demonstrate the effectiveness of IFDNS in significantly improving the performance of CoT and Chain-of-Thought with Self-Consistency (CoT-SC). Specifically, IFDNS achieves a +9.40% accuracy boost for CoT on the LogiQA dataset and a +11.70% improvement for CoT-SC on the PrOntoQA dataset.
- Abstract(参考訳): 大規模言語モデル(LLM)は、論理的および数学的問題解決を含む幅広い推論タスクにおいて、印象的な能力を示している。
Chain-of-Thought (CoT)のようなプロンプトベースの手法はLLM推論能力をある程度向上させることができるが、導出した結論が生成された推論連鎖と一致しないような忠実さの欠如に悩まされることが多い。
この問題に対処するため、研究者らはLLM論理推論能力を活性化するための神経象徴的アプローチを探求した。
しかし、既存のニューロシンボリック法は、プロセス中に情報損失を伴う課題に直面している。
これらの制限を克服するために,複雑な論理的関係を扱う上で,複数ラウンドのフィードバック機構を利用する新しいプロンプトベースの手法であるIFDNS(Iterative Feedback-Driven Neuro-Symbolic)を導入する。
IFDNSは論理抽出段階の反復的フィードバックを利用して因果関係文を正確に抽出し、命題的および論理的含意表現に変換することにより、情報損失問題を効果的に軽減する。
さらに、IFDNSは既存のプロンプトメソッドと直交しており、様々なプロンプトアプローチとのシームレスな統合を可能にする。
6つのデータセットにまたがる実証的な評価は、IFDNSがCoTとChain-of-Thought with Self-Consistency (CoT-SC)の性能を大幅に向上することを示す。
具体的には、IFDNSはLogiQAデータセット上のCoTの+9.40%精度向上とPrOntoQAデータセット上のCoT-SCの+11.70%改善を実現している。
関連論文リスト
- Making Mathematical Reasoning Adaptive [61.45161826629692]
大規模言語モデル(LLM)における適応推論を実現するためのAdaRフレームワークを提案する。
AdaRは可変値によって論理的に等価なクエリを合成し、これらのデータに基づいてRLVRでモデルを訓練し、スプリアス論理をペナルライズする。
実験により, AdaRはロバスト性や一般化を向上し, 数学的推論の大幅な改善を実現していることが示された。
論文 参考訳(メタデータ) (2025-10-06T09:30:05Z) - Do LLMs Dream of Discrete Algorithms? [0.7646713951724011]
大規模言語モデル(LLM)は、人工知能の風景を急速に変化させてきた。
確率的推論への依存は、厳密な論理的推論を必要とする領域における有効性を制限する。
本稿では,論理ベースの推論モジュールでLLMを増強するニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-29T22:03:01Z) - Chain-of-Code Collapse: Reasoning Failures in LLMs via Adversarial Prompting in Code Generation [0.3495246564946556]
大規模言語モデル(LLM)は複雑な推論を必要とするタスクにおいて顕著な成功を収めた。
これらのモデルは本当に理由があるのか、それとも浅い統計パターンを利用するだけなのか?
ここでは、意味論的に忠実だが逆向きに構造化された急激な摂動のスイートを導入することで、LCMの推論の堅牢性について検討する。
論文 参考訳(メタデータ) (2025-06-08T02:43:46Z) - Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models [9.689096888732642]
本稿では,論理的情報記述を拡張的に生成するために,命題論理を用いた論理解(LoT)プロンプトを提案する。
LoTは5つの論理的推論タスクで顕著なマージンで、様々なプロンプトメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-09-26T04:59:45Z) - T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large
Language Model Signals for Science Question Answering [59.63860993280275]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
LLM信号を用いた科学質問応答の指導を目的とした,T-SciQと呼ばれる新しい手法を提案する。
提案手法は,ScienceQAベンチマークで96.18%の精度で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-05T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。