論文の概要: LOGicalThought: Logic-Based Ontological Grounding of LLMs for High-Assurance Reasoning
- arxiv url: http://arxiv.org/abs/2510.01530v1
- Date: Thu, 02 Oct 2025 00:06:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.910285
- Title: LOGicalThought: Logic-Based Ontological Grounding of LLMs for High-Assurance Reasoning
- Title(参考訳): LOGicalThought:高保証推論のためのLLMの論理的オントロジーグラウンドリング
- Authors: Navapat Nananukul, Yue Zhang, Ryan Lee, Eric Boxer, Jonathan May, Vibhav Giridhar Gogate, Jay Pujara, Mayank Kejriwal,
- Abstract要約: 高精度な推論には、正確で検証可能で証拠に根ざした結論が必要である。
本稿では, LOGicalThought と呼ばれる新しいニューロシンボリック・グラウンドアーキテクチャを提案する。
高度な論理言語と論理理論をLLMと組み合わせて、二重の記号グラフコンテキストと論理ベースのコンテキストを構築する。
- 参考スコア(独自算出の注目度): 33.30049437667383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-assurance reasoning, particularly in critical domains such as law and medicine, requires conclusions that are accurate, verifiable, and explicitly grounded in evidence. This reasoning relies on premises codified from rules, statutes, and contracts, inherently involving defeasible or non-monotonic logic due to numerous exceptions, where the introduction of a single fact can invalidate general rules, posing significant challenges. While large language models (LLMs) excel at processing natural language, their capabilities in standard inference tasks do not translate to the rigorous reasoning required over high-assurance text guidelines. Core reasoning challenges within such texts often manifest specific logical structures involving negation, implication, and, most critically, defeasible rules and exceptions. In this paper, we propose a novel neurosymbolically-grounded architecture called LOGicalThought (LogT) that uses an advanced logical language and reasoner in conjunction with an LLM to construct a dual symbolic graph context and logic-based context. These two context representations transform the problem from inference over long-form guidelines into a compact grounded evaluation. Evaluated on four multi-domain benchmarks against four baselines, LogT improves overall performance by 11.84% across all LLMs. Performance improves significantly across all three modes of reasoning: by up to +10.2% on negation, +13.2% on implication, and +5.5% on defeasible reasoning compared to the strongest baseline.
- Abstract(参考訳): 特に法律や医学のような重要な分野において、高い保証の推論は、正確で、検証可能で、証拠に明確に根ざした結論を必要とする。
この推論は、ルール、法令、契約から成文化された前提に依存しており、本質的には、多くの例外により、デファシブルまたは非モノトニック論理に関係しており、単一の事実の導入は一般的な規則を無効にし、重大な課題を生じさせる。
大規模言語モデル(LLM)は自然言語処理に優れるが、標準推論タスクにおけるそれらの能力は、高保証テキストガイドラインよりも厳密な推論に変換されない。
このようなテキストの中核的な推論課題は、否定、含意、そして最も批判的なことに、非実現可能な規則と例外を含む特定の論理構造を示すことが多い。
本稿では,LLMと協調して高度な論理言語と推論器を用いて,2つの記号グラフコンテキストと論理ベースのコンテキストを構築する,LOGicalThought (LogT) と呼ばれる新しいニューロシンボリック・グラウンドアーキテクチャを提案する。
これら2つの文脈表現は、長期的ガイドラインに対する推論から、コンパクトな基底評価へと変換する。
4つのベースラインに対して4つのマルチドメインベンチマークで評価され、LogTは全LLMで11.84%パフォーマンスを改善した。
否定では+10.2%、含意では+13.2%、最強の基準よりもデファシブルな推論では+5.5%である。
関連論文リスト
- From Ambiguity to Verdict: A Semiotic-Grounded Multi-Perspective Agent for LLM Logical Reasoning [16.381034926435074]
LogicAgentは、論理的な複雑さと意味的な複雑さを共同で扱うように設計された、セミオティックな2乗誘導フレームワークである。
既存のデータセットのセマンティックな単純さと論理的な複雑さを克服するために、大学レベルの難易度に達するベンチマークであるRepublicQAを導入する。
LogicAgentはRepublicQAで最先端のパフォーマンスを実現しており、強いベースラインよりも平均6.25%向上している。
論文 参考訳(メタデータ) (2025-09-29T13:31:22Z) - Dissecting Logical Reasoning in LLMs: A Fine-Grained Evaluation and Supervision Study [34.29839553042609]
本研究では,3次元にわたる論理的推論を評価するためのきめ細かい評価フレームワークであるFinalLogicを提案する。
微調整時の監督形式の効果について検討する。
この結果から, 自然言語指導は, アウト・オブ・ディストリビューションや長文タスクにも強い一般化をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2025-06-05T09:34:12Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - Disentangling Logic: The Role of Context in Large Language Model Reasoning Capabilities [31.728976421529577]
包括的なドメイン集合からの抽象的および文脈的論理的問題に対するコントラストについて検討する。
我々は、標準的な命題論理、特に命題推論と帰納論理推論に焦点を当てる。
本実験は,LLMの論理的推論と真の推論能力に関する知見を提供することを目的としている。
論文 参考訳(メタデータ) (2024-06-04T21:25:06Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。