論文の概要: Making Implicit Premises Explicit in Logical Understanding of Enthymemes
- arxiv url: http://arxiv.org/abs/2603.06114v1
- Date: Fri, 06 Mar 2026 10:12:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.507734
- Title: Making Implicit Premises Explicit in Logical Understanding of Enthymemes
- Title(参考訳): エンサイメムの論理的理解における暗黙の前提
- Authors: Xuyao Feng, Anthony Hunter,
- Abstract要約: テキストや対話における現実世界の議論は、通常エントイムである(すなわち、その前提や主張は暗黙的である)。
エンティメムを扱う自然言語処理(NLP)メソッドは、テキスト中のエンティメムを識別する可能性があるが、基礎となるロジックをデコードしない。
本研究では,(1)明示的前提とクレームに基づく中間的暗黙的前提を生成するための大型言語モデル(LLM),(2)自然言語を論理式に変換するLLM,(3)SATソルバに基づくニューロシンボリック推論器,などを統合するパイプラインを提案する。
- 参考スコア(独自算出の注目度): 8.171594942398334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world arguments in text and dialogues are normally enthymemes (i.e. some of their premises and/or claims are implicit). Natural language processing (NLP) methods for handling enthymemes can potentially identify enthymemes in text but they do not decode their underlying logic, whereas logic-based approaches for handling them assume a knowledgebase with sufficient formulae that can be used to decode them via abduction. There is therefore a lack of a systematic method for translating textual components of an enthymeme into a logical argument and generating the logical formulae required for their decoding, and thereby showing logical entailment. To address this, we propose a pipeline that integrates: (1) a large language model (LLM) to generate intermediate implicit premises based on the explicit premise and claim; (2) another LLM to translate the natural language into logical formulas; and (3) a neuro-symbolic reasoner based on a SAT solver to determine entailment. We evaluate our pipeline on two enthymeme datasets, demonstrating promising performance in selecting the correct implicit premise, as measured by precision, recall, F1-score, and accuracy.
- Abstract(参考訳): テキストや対話における現実世界の議論は、通常エントイムである(すなわち、それらの前提や主張は暗黙的である)。
自然言語処理(NLP)手法はテキスト中のエントロメムを識別する可能性があるが、その基盤となる論理をデコードしない。
したがって、エントロメムのテキスト成分を論理的引数に翻訳し、その復号に必要な論理式を生成し、論理的含意を示す体系的な方法が欠如している。
そこで本研究では,(1)明示的前提とクレームに基づく中間的暗黙的前提を生成する大規模言語モデル(LLM),(2)自然言語を論理式に変換するLLM,(3)SATソルバをベースとしたニューロシンボリック推論器,などを統合するパイプラインを提案する。
パイプラインを2つのエントロメムデータセット上で評価し、精度、リコール、F1スコア、精度で測定し、正しい暗黙的前提を選択する上で有望な性能を示す。
関連論文リスト
- NL2LOGIC: AST-Guided Translation of Natural Language into First-Order Logic with Large Language Models [5.211983629897431]
我々は一階述語論理翻訳フレームワークNL2LOGICを提案する。
LogicNLIの実験では、抽象ProofWriterベンチマークにより、NL2LOGICは99%の構文的精度を実現し、最先端のベースラインに対して最大30%のセマンティックな正確性向上を実現している。
NL2LOGICをLogic-LMに組み込むことでほぼ完全な実行性が得られ、Logic-LMのオリジナルの数発の制約のない翻訳モジュールと比較して下流の推論精度が31%向上する。
論文 参考訳(メタデータ) (2026-01-29T14:51:32Z) - Training LLMs with LogicReward for Faithful and Rigorous Reasoning [75.30425553246177]
定理証明器を用いてステップレベルの論理的正しさを強制することでモデルトレーニングを指導する報酬システムであるLogicRewardを提案する。
LogicRewardで構築されたデータに基づいてトレーニングされた8Bモデルは、GPT-4oとo4-miniを11.6%、自然言語推論と論理的推論タスクで2%超えた。
論文 参考訳(メタデータ) (2025-12-20T03:43:02Z) - FSLI: An Interpretable Formal Semantic System for One-Dimensional Ordering Inference [0.9048611509540079]
論理的推論の一次元順序付け問題を解くシステムを開発した。
自然言語の前提と候補文を一階述語論理に変換する。
BIGbenchの論理推論タスクでは100%の精度を実現し、AR-LSATの構文的に単純化されたサブセットでは88%の精度を実現している。
論文 参考訳(メタデータ) (2025-02-12T13:58:42Z) - Towards Logically Sound Natural Language Reasoning with Logic-Enhanced Language Model Agents [3.5083201638203154]
Logic-Enhanced Language Model Agents (LELMA) は、大きな言語モデルと形式論理を統合するフレームワークである。
LeLMAは自動形式化を用いて推論を論理表現に変換し、論理的妥当性を評価する。
LeLMAはエラー検出の精度が高く,自己修正による推論精度の向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T18:25:35Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。