論文の概要: NL2LOGIC: AST-Guided Translation of Natural Language into First-Order Logic with Large Language Models
- arxiv url: http://arxiv.org/abs/2602.13237v1
- Date: Thu, 29 Jan 2026 14:51:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.574135
- Title: NL2LOGIC: AST-Guided Translation of Natural Language into First-Order Logic with Large Language Models
- Title(参考訳): NL2LOGIC:大規模言語モデルを用いた自然言語の1次論理へのAST誘導変換
- Authors: Rizky Ramadhana Putra, Raihan Sultan Pasha Basuki, Yutong Cheng, Peng Gao,
- Abstract要約: 我々は一階述語論理翻訳フレームワークNL2LOGICを提案する。
LogicNLIの実験では、抽象ProofWriterベンチマークにより、NL2LOGICは99%の構文的精度を実現し、最先端のベースラインに対して最大30%のセマンティックな正確性向上を実現している。
NL2LOGICをLogic-LMに組み込むことでほぼ完全な実行性が得られ、Logic-LMのオリジナルの数発の制約のない翻訳モジュールと比較して下流の推論精度が31%向上する。
- 参考スコア(独自算出の注目度): 5.211983629897431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated reasoning is critical in domains such as law and governance, where verifying claims against facts in documents requires both accuracy and interpretability. Recent work adopts structured reasoning pipelines that translate natural language into first-order logic and delegate inference to automated solvers. With the rise of large language models, approaches such as GCD and CODE4LOGIC leverage their reasoning and code generation capabilities to improve logic parsing. However, these methods suffer from fragile syntax control due to weak enforcement of global grammar constraints and low semantic faithfulness caused by insufficient clause-level semantic understanding. We propose NL2LOGIC, a first-order logic translation framework that introduces an abstract syntax tree as an intermediate representation. NL2LOGIC combines a recursive large language model based semantic parser with an abstract syntax tree guided generator that deterministically produces solver-ready logic code. Experiments on the FOLIO, LogicNLI, and ProofWriter benchmarks show that NL2LOGIC achieves 99 percent syntactic accuracy and improves semantic correctness by up to 30 percent over state-of-the-art baselines. Furthermore, integrating NL2LOGIC into Logic-LM yields near-perfect executability and improves downstream reasoning accuracy by 31 percent compared to Logic-LM's original few-shot unconstrained translation module.
- Abstract(参考訳): 文書における事実に対する主張を検証するには、正確性と解釈可能性の両方が必要である。
最近の研究では、自然言語を一階述語論理に変換し、自動解法に推論を委譲する構造化推論パイプラインが採用されている。
GCDやCODE4LOGICといった大規模言語モデルの台頭に伴い、論理解析を改善するために推論とコード生成能力を活用するアプローチが導入された。
しかし,これらの手法は,大域文法制約の弱厳格化と,節レベルの意味理解が不十分なことによる意味的忠実度低下により,脆弱な構文制御に悩まされる。
中間表現として抽象構文木を導入する一階述語論理翻訳フレームワークであるNL2LOGICを提案する。
NL2LOGICは、再帰的な大言語モデルに基づくセマンティックパーサと抽象構文木誘導ジェネレータを組み合わせて、ソルバ対応論理コードを決定論的に生成する。
FOLIO、LogicNLI、ProofWriterのベンチマークの実験では、NL2LOGICは99%の構文的精度を達成し、最先端のベースラインよりも最大30%のセマンティックな正確性を向上している。
さらに、NL2LOGICをLogic-LMに組み込むことでほぼ完全な実行可能性を得ることができ、Logic-LMの元々のほとんど制約のない翻訳モジュールと比較して、下流の推論精度が31%向上する。
関連論文リスト
- Last Layer Logits to Logic: Empowering LLMs with Logic-Consistent Structured Knowledge Reasoning [55.55968342644846]
大規模言語モデル(LLM)は、膨大な非構造化テキストの事前学習を通じて、自然言語推論タスクにおいて優れた性能を達成する。
LLM出力の論理的欠陥を修正するために,ロジット強化とロジットフィルタリングをコアモジュールとして組み込んだ textitLogits-to-Logic フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T07:08:27Z) - From Language to Logic: A Bi-Level Framework for Structured Reasoning [6.075080928704587]
自然言語入力に対する構造化推論は、人工知能における中核的な課題である。
本稿では,ハイレベルなタスク抽象化と低レベルなロジック生成という2段階のプロセスを通じて,言語を論理にマッピングする新しいフレームワークを提案する。
提案手法は既存のベースラインの精度を著しく上回り,精度は最大40%向上した。
論文 参考訳(メタデータ) (2025-07-11T11:24:09Z) - FSLI: An Interpretable Formal Semantic System for One-Dimensional Ordering Inference [0.9048611509540079]
論理的推論の一次元順序付け問題を解くシステムを開発した。
自然言語の前提と候補文を一階述語論理に変換する。
BIGbenchの論理推論タスクでは100%の精度を実現し、AR-LSATの構文的に単純化されたサブセットでは88%の精度を実現している。
論文 参考訳(メタデータ) (2025-02-12T13:58:42Z) - Towards Logically Sound Natural Language Reasoning with Logic-Enhanced Language Model Agents [3.5083201638203154]
Logic-Enhanced Language Model Agents (LELMA) は、大きな言語モデルと形式論理を統合するフレームワークである。
LeLMAは自動形式化を用いて推論を論理表現に変換し、論理的妥当性を評価する。
LeLMAはエラー検出の精度が高く,自己修正による推論精度の向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T18:25:35Z) - Scaling Synthetic Logical Reasoning Datasets with Context-Sensitive Declarative Grammars [0.6537995248511139]
複数の言語を結合するフレキシブルなコンテキスト依存ルールを持つ宣言型フレームワークを提案する。
最大32の前提と1つの仮説を選択して一階述語論理問題を構築する。
生成中の意味的制約と述語に対する注意深い英語の動詞化は、自然な英語のタスクを損なうことなく論理的推論を促進することを実証する。
論文 参考訳(メタデータ) (2024-06-16T18:10:49Z) - Autoformalizing Natural Language to First-Order Logic: A Case Study in Logical Fallacy Detection [44.31755414036022]
自然言語をFOLに自動変換するフレームワークであるNL2FOLについて,Large Language Models (LLMs) を用いて段階的に導入する。
本手法は,暗黙の背景知識の統合など,翻訳プロセスにおける重要な課題に対処する。
ニューロシンボリックなアプローチでは、推論プロセスに対する解釈可能な洞察も提供し、モデル微調整やラベル付きトレーニングデータを必要とせずに堅牢性を示す。
論文 参考訳(メタデータ) (2024-04-18T00:20:48Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - Logic-Driven Context Extension and Data Augmentation for Logical
Reasoning of Text [65.24325614642223]
論理的な記号や表現をテキストで理解し、答えにたどり着くよう提案します。
このような論理的情報に基づいて,文脈拡張フレームワークとデータ拡張アルゴリズムを提案する。
本手法は最先端の性能を実現し,論理駆動コンテキスト拡張フレームワークとデータ拡張アルゴリズムの両方が精度向上に寄与する。
論文 参考訳(メタデータ) (2021-05-08T10:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。