論文の概要: A Neurosymbolic Approach to Natural Language Formalization and Verification
- arxiv url: http://arxiv.org/abs/2511.09008v1
- Date: Thu, 13 Nov 2025 01:25:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.354745
- Title: A Neurosymbolic Approach to Natural Language Formalization and Verification
- Title(参考訳): 自然言語の形式化と検証へのニューロシンボリックアプローチ
- Authors: Sam Bayless, Stefano Buliani, Darion Cassel, Byron Cook, Duncan Clough, Rémi Delmas, Nafi Diallo, Ferhat Erata, Nick Feng, Dimitra Giannakopoulou, Aman Goel, Aditya Gokhale, Joe Hendrix, Marc Hudak, Dejan Jovanović, Andrew M. Kent, Benjamin Kiesl-Reiter, Jeffrey J. Kuna, Nadia Labai, Joseph Lilien, Divya Raghunathan, Zvonimir Rakamarić, Niloofar Razavi, Michael Tautschnig, Ali Torkamani, Nathaniel Weir, Michael W. Whalen, Jianan Yao,
- Abstract要約: 大規模言語モデルは、自然言語の解釈や推論においてよく機能するが、その固有性は金融や医療といった規制された産業における採用を制限する。
本稿では,LLMを用いた2段階のニューロシンボリック・フレームワークを提案する。
提案手法は, 論理的妥当性の同定において, ほぼゼロの偽陽性率を示すため, 99%以上の音響性を示した。
- 参考スコア(独自算出の注目度): 4.697939947463767
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models perform well at natural language interpretation and reasoning, but their inherent stochasticity limits their adoption in regulated industries like finance and healthcare that operate under strict policies. To address this limitation, we present a two-stage neurosymbolic framework that (1) uses LLMs with optional human guidance to formalize natural language policies, allowing fine-grained control of the formalization process, and (2) uses inference-time autoformalization to validate logical correctness of natural language statements against those policies. When correctness is paramount, we perform multiple redundant formalization steps at inference time, cross checking the formalizations for semantic equivalence. Our benchmarks demonstrate that our approach exceeds 99% soundness, indicating a near-zero false positive rate in identifying logical validity. Our approach produces auditable logical artifacts that substantiate the verification outcomes and can be used to improve the original text.
- Abstract(参考訳): 大きな言語モデルは、自然言語の解釈や推論においてうまく機能するが、その固有の確率性は、厳格な政策の下で機能する金融や医療といった規制された産業において採用を制限する。
この制限に対処するため,(1)LLMを任意人為的ガイダンスで使用して自然言語ポリシーを定式化し,形式化プロセスのきめ細かい制御を可能にし,(2)推論時オートフォーマル化を用いてこれらのポリシーに対する自然言語文の論理的正当性を検証した2段階のニューロシンボリック・フレームワークを提案する。
正しさが最重要である場合には、推論時に複数の冗長な形式化ステップを実行し、意味的等価性の形式化を横断的にチェックする。
提案手法は, 論理的妥当性の同定において, ほぼゼロの偽陽性率を示すため, 99%以上の音響性を示した。
提案手法は,検証結果を裏付ける監査可能な論理アーティファクトを生成し,原文の改善に利用することができる。
関連論文リスト
- ReForm: Reflective Autoformalization with Prospective Bounded Sequence Optimization [73.0780809974414]
本稿では,意味的整合性評価を自己形式化プロセスに統合する反射的自己形式化手法を提案する。
これにより、モデルが形式的なステートメントを反復的に生成し、セマンティックな忠実さを評価し、自己修正された特定エラーを発生させることができる。
実験の結果、ReFormは最強のベースラインに対して平均22.6ポイントの改善を達成した。
論文 参考訳(メタデータ) (2025-10-28T16:22:54Z) - Explainable Rule Application via Structured Prompting: A Neural-Symbolic Approach [0.0]
大規模言語モデル(LLM)は複雑な推論タスクでは優れているが、一貫性のあるルールアプリケーション、例外処理、説明可能性に苦慮している。
本稿では、推論を3つの検証可能なステップ(エンティティ識別、プロパティ抽出、シンボリックルール適用)に分解する構造化プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T14:14:01Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - Mitigating Content Effects on Reasoning in Language Models through Fine-Grained Activation Steering [14.298418197820912]
大規模言語モデル(LLM)は、しばしば推論の限界を示し、しばしば内容の妥当性を論理的妥当性と混同する。
これは偏りのある推論を生じさせ、そこではもっともらしい議論は論理的に妥当か、あるいはその逆であると見なされる。
本稿では,アクティベーションステアリングによる形式推論におけるコンテンツバイアス軽減の問題について検討する。
論文 参考訳(メタデータ) (2025-05-18T01:34:34Z) - PEIRCE: Unifying Material and Formal Reasoning via LLM-Driven Neuro-Symbolic Refinement [13.042323420379187]
PEIRCEは、反復的予想批判プロセスを通じて物質と形式的推論を統合するために設計された、神経象徴的なフレームワークである。
自然言語説明生成の領域において,その能力を実証する。
論文 参考訳(メタデータ) (2025-04-05T09:04:47Z) - Autoformalizing Natural Language to First-Order Logic: A Case Study in Logical Fallacy Detection [44.31755414036022]
自然言語をFOLに自動変換するフレームワークであるNL2FOLについて,Large Language Models (LLMs) を用いて段階的に導入する。
本手法は,暗黙の背景知識の統合など,翻訳プロセスにおける重要な課題に対処する。
ニューロシンボリックなアプローチでは、推論プロセスに対する解釈可能な洞察も提供し、モデル微調整やラベル付きトレーニングデータを必要とせずに堅牢性を示す。
論文 参考訳(メタデータ) (2024-04-18T00:20:48Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。