論文の概要: From Ambiguity to Verdict: A Semiotic-Grounded Multi-Perspective Agent for LLM Logical Reasoning
- arxiv url: http://arxiv.org/abs/2509.24765v2
- Date: Tue, 30 Sep 2025 03:40:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 12:20:10.414885
- Title: From Ambiguity to Verdict: A Semiotic-Grounded Multi-Perspective Agent for LLM Logical Reasoning
- Title(参考訳): 曖昧さから評決へ: LLM論理推論のためのセミオティック・グラウンド・マルチパースペクティブ・エージェント
- Authors: Yunyao Zhang, Xinglang Zhang, Junxi Sheng, Wenbing Li, Junqing Yu, Wei Yang, Zikai Song,
- Abstract要約: LogicAgentは、論理的な複雑さと意味的な複雑さを共同で扱うように設計された、セミオティックな2乗誘導フレームワークである。
既存のデータセットのセマンティックな単純さと論理的な複雑さを克服するために、大学レベルの難易度に達するベンチマークであるRepublicQAを導入する。
LogicAgentはRepublicQAで最先端のパフォーマンスを実現しており、強いベースラインよりも平均6.25%向上している。
- 参考スコア(独自算出の注目度): 16.381034926435074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logical reasoning is a fundamental capability of large language models (LLMs). However, existing studies largely overlook the interplay between logical complexity and semantic complexity, resulting in methods that struggle to address challenging scenarios involving abstract propositions, ambiguous contexts, and conflicting stances, which are central to human reasoning. For this gap, we propose LogicAgent, a semiotic-square-guided framework designed to jointly address logical complexity and semantic complexity. LogicAgent explicitly performs multi-perspective deduction in first-order logic (FOL), while mitigating vacuous reasoning through existential import checks that incorporate a three-valued decision scheme (True, False, Uncertain) to handle boundary cases more faithfully. Furthermore, to overcome the semantic simplicity and low logical complexity of existing datasets, we introduce RepublicQA, a benchmark that reaches college-level difficulty (FKGL = 11.94) and exhibits substantially greater lexical and structural diversity than prior benchmarks. RepublicQA is grounded in philosophical concepts, featuring abstract propositions and systematically organized contrary and contradictory relations, making it the most semantically rich resource for evaluating logical reasoning. Experiments demonstrate that LogicAgent achieves state-of-the-art performance on RepublicQA, with a 6.25% average gain over strong baselines, and generalizes effectively to mainstream logical reasoning benchmarks including ProntoQA, ProofWriter, FOLIO, and ProverQA, achieving an additional 7.05% average gain. These results highlight the strong effectiveness of our semiotic-grounded multi-perspective reasoning in boosting LLMs' logical performance.
- Abstract(参考訳): 論理的推論は、大規模言語モデル(LLM)の基本的な能力である。
しかし、既存の研究は、論理的複雑性と意味的複雑性の相互作用を概ね見落としており、抽象命題、曖昧な文脈、人間の推論の中心となる矛盾するスタンスを含む挑戦的なシナリオに対処するのに苦労する手法を生み出している。
このギャップを埋めるために,論理的複雑性と意味論的複雑性を共同で扱うように設計された,擬似2乗誘導フレームワークであるLogicAgentを提案する。
LogicAgent は、一階述語論理 (FOL) において、境界条件をより忠実に扱うために、3値決定スキーム (True, False, Uncertain) を組み込んだ実存的なインポートチェックによる空白推論を緩和しながら、多点述語推論を明示的に実行する。
さらに、既存のデータセットのセマンティックな単純さと論理的な複雑さを克服するために、大学レベルの難易度(FKGL = 11.94)に達するベンチマークであるRepublicQAを導入する。
RepublicQAは哲学的概念に根ざし、抽象命題と体系的に組織化された反対関係と矛盾関係を特徴とし、論理的推論を評価する上で最も意味的に豊かな資源となっている。
実験の結果、LogicAgentはRepublicQAにおける最先端のパフォーマンスを達成し、強いベースラインよりも平均6.25%向上し、ProntoQA、ProofWriter、FOLIO、ProverQAといった主要な論理推論ベンチマークに効果的に一般化し、さらに7.05%の平均ゲインを達成した。
これらの結果は, LLMの論理的性能を高める上で, セミオティックグラウンド・マルチパースペクティブ推論の強い効果を浮き彫りにしている。
関連論文リスト
- From Language to Logic: A Bi-Level Framework for Structured Reasoning [6.075080928704587]
自然言語入力に対する構造化推論は、人工知能における中核的な課題である。
本稿では,ハイレベルなタスク抽象化と低レベルなロジック生成という2段階のプロセスを通じて,言語を論理にマッピングする新しいフレームワークを提案する。
提案手法は既存のベースラインの精度を著しく上回り,精度は最大40%向上した。
論文 参考訳(メタデータ) (2025-07-11T11:24:09Z) - LogicTree: Structured Proof Exploration for Coherent and Rigorous Logical Reasoning with Large Language Models [9.339988760379915]
LogicTreeは、アルゴリズム誘導探索を用いて構造化された証明探索を自動化する推論時モジュラーフレームワークである。
前提優先度付けのための2自由導出を導入し、戦略的証明探索を可能にする。
LogicTreeでは、GPT-4oは平均7.6%でo3-miniを上回っている。
論文 参考訳(メタデータ) (2025-04-18T22:10:02Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。