論文の概要: From Hypothesis to Premises: LLM-based Backward Logical Reasoning with Selective Symbolic Translation
- arxiv url: http://arxiv.org/abs/2512.03360v1
- Date: Wed, 03 Dec 2025 01:52:31 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:10:05.516156
- Title: From Hypothesis to Premises: LLM-based Backward Logical Reasoning with Selective Symbolic Translation
- Title(参考訳): 仮説から前提へ:選択的記号翻訳によるLCMに基づく後方論理推論
- Authors: Qingchuan Li, Mingyue Cheng, Zirui Liu, Daoyu Wang, Yuting Zeng, Tongxuan Liu,
- Abstract要約: 仮説駆動型後方論理推論(HBLR)を提案する。
中心となる考え方は、信頼を意識したシンボリック翻訳と仮説駆動の後方推論を統合することである。
HBLRは、精度と効率の両方において、強いベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 8.104087344683604
- License:
- Abstract: Logical reasoning is a core challenge in natural language understanding and a fundamental capability of artificial intelligence, underpinning scientific discovery, mathematical theorem proving, and complex decision-making. Despite the remarkable progress of large language models (LLMs), most current approaches still rely on forward reasoning paradigms, generating step-by-step rationales from premises to conclusions. However, such methods often suffer from redundant inference paths, hallucinated steps, and semantic drift, resulting in inefficient and unreliable reasoning. In this paper, we propose a novel framework, Hypothesis-driven Backward Logical Reasoning (HBLR). The core idea is to integrate confidence-aware symbolic translation with hypothesis-driven backward reasoning. In the translation phase, only high-confidence spans are converted into logical form, such as First-Order Logic (FOL), while uncertain content remains in natural language. A translation reflection module further ensures semantic fidelity by evaluating symbolic outputs and reverting lossy ones back to text when necessary. In the reasoning phase, HBLR simulates human deductive thinking by assuming the conclusion is true and recursively verifying its premises. A reasoning reflection module further identifies and corrects flawed inference steps, enhancing logical coherence. Extensive experiments on five reasoning benchmarks demonstrate that HBLR consistently outperforms strong baselines in both accuracy and efficiency.
- Abstract(参考訳): 論理的推論は、自然言語理解における中核的な課題であり、人工知能の基本的な能力であり、科学的な発見、数学的定理の証明、複雑な意思決定の基盤となっている。
大規模言語モデル(LLM)の顕著な進歩にもかかわらず、現在のほとんどのアプローチは、まだフォワード推論パラダイムに依存しており、前提から結論までステップバイステップの合理性を生み出す。
しかし、このような手法は、しばしば冗長な推論パス、幻覚的なステップ、セマンティックドリフトに悩まされ、非効率で信頼性の低い推論をもたらす。
本稿では,仮説駆動型後方論理推論(HBLR)を提案する。
中心となる考え方は、信頼を意識したシンボリック翻訳と仮説駆動の後方推論を統合することである。
翻訳段階では、第一次論理(FOL)のような高信頼のスパンのみが論理形式に変換されるが、不確実な内容は自然言語で残っている。
翻訳反射モジュールは、シンボリック出力を評価し、不要なものを必要に応じてテキストに戻すことにより、意味的忠実性をさらに保証する。
推論フェーズでは、HBLRは、結論が真実であると仮定し、その前提を再帰的に検証することによって、人間の誘惑的思考をシミュレートする。
推論反射モジュールは、さらに欠陥のある推論ステップを特定し、修正し、論理コヒーレンスを高める。
5つの推論ベンチマークの大規模な実験により、HBLRは精度と効率の両方において強いベースラインを一貫して上回っていることが示された。
関連論文リスト
- Are Language Models Efficient Reasoners? A Perspective from Logic Programming [109.47572890883248]
現代言語モデル(LM)は、強い推論能力を示すが、標準的な評価は、人間のような推論の重要な側面である効率性を見越しながら、正確性を強調する。
本稿では、論理プログラミングのレンズを用いて、LM推論効率を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-29T15:30:31Z) - LOGicalThought: Logic-Based Ontological Grounding of LLMs for High-Assurance Reasoning [33.30049437667383]
高精度な推論には、正確で検証可能で証拠に根ざした結論が必要である。
本稿では, LOGicalThought と呼ばれる新しいニューロシンボリック・グラウンドアーキテクチャを提案する。
高度な論理言語と論理理論をLLMと組み合わせて、二重の記号グラフコンテキストと論理ベースのコンテキストを構築する。
論文 参考訳(メタデータ) (2025-10-02T00:06:23Z) - From Ambiguity to Verdict: A Semiotic-Grounded Multi-Perspective Agent for LLM Logical Reasoning [16.381034926435074]
LogicAgentは、論理的な複雑さと意味的な複雑さを共同で扱うように設計された、セミオティックな2乗誘導フレームワークである。
既存のデータセットのセマンティックな単純さと論理的な複雑さを克服するために、大学レベルの難易度に達するベンチマークであるRepublicQAを導入する。
LogicAgentはRepublicQAで最先端のパフォーマンスを実現しており、強いベースラインよりも平均6.25%向上している。
論文 参考訳(メタデータ) (2025-09-29T13:31:22Z) - DivLogicEval: A Framework for Benchmarking Logical Reasoning Evaluation in Large Language Models [58.439517684779936]
本稿では,多種多様な文からなる自然文からなる古典論理ベンチマークDivLogicEvalを提案する。
また,より信頼性の高い評価を実現するために,大規模言語モデルに固有のバイアスやランダム性の影響を緩和する新たな評価指標を導入する。
論文 参考訳(メタデータ) (2025-09-19T04:40:46Z) - Reasoning is about giving reasons [55.56111618153049]
高い精度の3つの一般的な推論データセットにおいて、自然言語の引数の論理構造を同定し、抽出できることが示される。
我々のアプローチは、自然言語の引数の論理構造に依存するあらゆる推論形式をサポートする。
論文 参考訳(メタデータ) (2025-08-20T07:26:53Z) - Theorem-of-Thought: A Multi-Agent Framework for Abductive, Deductive, and Inductive Reasoning in Language Models [2.172419551358714]
大規模言語モデル(LLM)は、自然言語推論タスク全体で強いパフォーマンスを示しているが、その推論プロセスは脆弱で解釈が難しいままである。
Theorem-of-Thought (ToTh)は、3つの並列エージェント間の協調として推論をモデル化する新しいフレームワークである。
シンボリック(WebOfLies)と数値(MultiArithm)の推論ベンチマークの実験は、ToThがCoT、セルフ一貫性、CoT-デコーディングを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-08T12:28:38Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。