論文の概要: Statistical Parsing for Logical Information Retrieval
- arxiv url: http://arxiv.org/abs/2602.12170v1
- Date: Thu, 12 Feb 2026 16:57:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.947458
- Title: Statistical Parsing for Logical Information Retrieval
- Title(参考訳): 論理情報検索のための統計的解析
- Authors: Greg Coppola,
- Abstract要約: 本稿では、推論、セマンティクス、構文間のギャップに対処する。
推論のために、QBBN を NEG 因子で拡張し、P(x) + P(neg x) = 1 を強制する。
意味論では、ロールラベル付き述語、モーダル量化器、およびPrawitzに続く表現性の3つの階層を持つ型付き論理言語を示す。
文法において,文を論理形式に決定的にコンパイルする型付きスロット文法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In previous work (Coppola, 2024) we introduced the Quantified Boolean Bayesian Network (QBBN), a logical graphical model that implements the forward fragment of natural deduction (Prawitz, 1965) as a probabilistic factor graph. That work left two gaps: no negation/backward reasoning, and no parser for natural language. This paper addresses both gaps across inference, semantics, and syntax. For inference, we extend the QBBN with NEG factors enforcing P(x) + P(neg x) = 1, enabling contrapositive reasoning (modus tollens) via backward lambda messages, completing Prawitz's simple elimination rules. The engine handles 44/44 test cases spanning 22 reasoning patterns. For semantics, we present a typed logical language with role-labeled predicates, modal quantifiers, and three tiers of expressiveness following Prawitz: first-order quantification, propositions as arguments, and predicate quantification via lambda abstraction. For syntax, we present a typed slot grammar that deterministically compiles sentences to logical form (33/33 correct, zero ambiguity). LLMs handle disambiguation (95% PP attachment accuracy) but cannot produce structured parses directly (12.4% UAS), confirming grammars are necessary. The architecture: LLM preprocesses, grammar parses, LLM reranks, QBBN infers. We argue this reconciles formal semantics with Sutton's "bitter lesson" (2019): LLMs eliminate the annotation bottleneck that killed formal NLP, serving as annotator while the QBBN serves as verifier. Code: https://github.com/gregorycoppola/world
- Abstract(参考訳): 以前の研究(Coppola, 2024)では、確率係数グラフとして自然推論の前方フラグメント(Prawitz, 1965)を実装する論理グラフィックモデルであるQuantified Boolean Bayesian Network (QBBN)を導入しました。
否定/逆推論がなく、自然言語のパーサーもない。
本稿では、推論、セマンティクス、構文間のギャップに対処する。
推論のために、QBBN を P(x) + P(neg x) = 1 を強制する NEG 因子で拡張し、反陽性推論(モダス・トレン)を可能にする。
エンジンは22の推論パターンにまたがる44/44のテストケースを扱う。
セマンティックスでは、ロールラベル付き述語、モーダル量化子、およびPrawitzに続く表現性の3つの階層を持つ型付き論理言語を示す: 1次定量化、引数としての命題、ラムダ抽象による述語量化。
文法において,文を論理形式に決定的にコンパイルする型付きスロット文法(33/33正,0曖昧性)を提案する。
LLMは曖昧さ(95%のPPアタッチメント精度)を扱うが、構造解析を直接生成することはできない(12.4% UAS)。
アーキテクチャ: LLM前処理、文法解析、LLM再帰、QBBN推論。
このことは、Sutton の "bitter lessons" (2019) と形式的意味論を一致させる: LLM は形式的 NLP を殺してアノテータとして機能し、QBBN は検証子として機能する。
コード:https://github.com/gregorycoppola/world
関連論文リスト
- Uncovering Hidden Correctness in LLM Causal Reasoning via Symbolic Verification [56.51953062869371]
DoVerifier は、因果表現が与えられた因果グラフから導出可能であるかどうかをdo-calculus と probability theory の規則を用いてチェックする記号検証器である。
因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果
論文 参考訳(メタデータ) (2026-01-29T03:22:58Z) - Automated Theorem Provers Help Improve Large Language Model Reasoning [0.18416014644193066]
ニューロシンボリック・アーキテクチャーによっていかに精度が向上できるかを示す。
構文的および意味的エラーカテゴリのフレームワークを定義する。
我々は,構文的および意味的誤りを自動的に修正する機能を備えた手法を拡張した。
論文 参考訳(メタデータ) (2024-08-07T01:03:56Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。