論文の概要: Neurosymbolic Language Reasoning as Satisfiability Modulo Theory
- arxiv url: http://arxiv.org/abs/2602.18095v1
- Date: Fri, 20 Feb 2026 09:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.282283
- Title: Neurosymbolic Language Reasoning as Satisfiability Modulo Theory
- Title(参考訳): 満足度モデュロ理論としてのニューロシンボリック言語推論
- Authors: Hyunseok Oh, Sam Stern, Youngki Lee, Matthai Philipose,
- Abstract要約: 文書を自然言語テキスト制約(NLTC)として表すニューロシンボリック言語であるLogitextを紹介する。
我々は,LLMに基づく制約評価と満足度変調理論(SMT)の解法を統合するアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 17.539850467483323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language understanding requires interleaving textual and logical reasoning, yet large language models often fail to perform such reasoning reliably. Existing neurosymbolic systems combine LLMs with solvers but remain limited to fully formalizable tasks such as math or program synthesis, leaving natural documents with only partial logical structure unaddressed. We introduce Logitext, a neurosymbolic language that represents documents as natural language text constraints (NLTCs), making partial logical structure explicit. We develop an algorithm that integrates LLM-based constraint evaluation with satisfiability modulo theory (SMT) solving, enabling joint textual-logical reasoning. Experiments on a new content moderation benchmark, together with LegalBench and Super-Natural Instructions, show that Logitext improves both accuracy and coverage. This work is the first that treats LLM-based reasoning as an SMT theory, extending neurosymbolic methods beyond fully formalizable domains.
- Abstract(参考訳): 自然言語の理解にはテキストと論理的推論をインターリーブする必要があるが、大きな言語モデルはそのような推論を確実に実行できないことが多い。
既存のニューロシンボリックシステムはLLMを解法と組み合わせているが、数学やプログラム合成のような完全形式化可能なタスクに限られており、自然な文書は部分論理構造のみをそのまま残している。
本稿では,文書を自然言語テキスト制約(NLTC)として表現し,部分論理構造を明示するニューロシンボリック言語であるLogitextを紹介する。
我々は,LLMに基づく制約評価と満足度変調理論(SMT)の解法を統合するアルゴリズムを開発した。
LegalBenchとSuper-Natural Instructionsとともに、新しいコンテンツモデレーションベンチマークの実験は、Logitextが精度とカバレッジの両方を改善していることを示している。
この研究は、LSMに基づく推論をSMT理論として扱い、完全な形式化可能な領域を超えて神経シンボル的手法を拡張した最初のものである。
関連論文リスト
- Last Layer Logits to Logic: Empowering LLMs with Logic-Consistent Structured Knowledge Reasoning [55.55968342644846]
大規模言語モデル(LLM)は、膨大な非構造化テキストの事前学習を通じて、自然言語推論タスクにおいて優れた性能を達成する。
LLM出力の論理的欠陥を修正するために,ロジット強化とロジットフィルタリングをコアモジュールとして組み込んだ textitLogits-to-Logic フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T07:08:27Z) - Sound and Complete Neurosymbolic Reasoning with LLM-Grounded Interpretations [7.81820080453498]
大規模言語モデル(LLM)は、自然言語の理解と生成において印象的な能力を示している。
パラ一貫性論理に対する形式的意味論の解釈関数に LLM を直接統合する手法を提案する。
論文 参考訳(メタデータ) (2025-07-13T19:05:43Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - Improving Chain-of-Thought Reasoning via Quasi-Symbolic Abstractions [25.337811496479265]
CoT(Chain-of-Though)は、大規模言語モデルにおける推論のための一般的な戦略である。
準シンボリックな説明を通じて,LLMを高レベルの抽象化で動作させる,CoTのバリエーションであるQuaSARを提案する。
実験の結果,準記号的抽象化はCoT法を最大8%精度で改善できることがわかった。
論文 参考訳(メタデータ) (2025-02-18T07:58:48Z) - FSLI: An Interpretable Formal Semantic System for One-Dimensional Ordering Inference [0.9048611509540079]
論理的推論の一次元順序付け問題を解くシステムを開発した。
自然言語の前提と候補文を一階述語論理に変換する。
BIGbenchの論理推論タスクでは100%の精度を実現し、AR-LSATの構文的に単純化されたサブセットでは88%の精度を実現している。
論文 参考訳(メタデータ) (2025-02-12T13:58:42Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。