論文の概要: Delta1 with LLM: symbolic and neural integration for credible and explainable reasoning
- arxiv url: http://arxiv.org/abs/2603.12953v1
- Date: Fri, 13 Mar 2026 12:54:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.089062
- Title: Delta1 with LLM: symbolic and neural integration for credible and explainable reasoning
- Title(参考訳): Delta1 with LLM: 信頼性と説明可能な推論のためのシンボリックおよびニューラル統合
- Authors: Yang Xu, Jun Liu, Shuwei Chen, Chris Nugent, Hailing Guo,
- Abstract要約: 完全三角標準矛盾(FTSC)に基づいて自動定理Delta1を統合する構成により、終端説明可能性を導入する。
この研究は、論理学、言語学、学習の収束を推し進め、構築的定理の生成を、ニューロシンボリックな説明可能なAIの原理的基礎として位置づける。
- 参考スコア(独自算出の注目度): 7.654451208709667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuro-symbolic reasoning increasingly demands frameworks that unite the formal rigor of logic with the interpretability of large language models (LLMs). We introduce an end to end explainability by construction pipeline integrating the Automated Theorem Generator Delta1 based on the full triangular standard contradiction (FTSC) with LLMs. Delta1 deterministically constructs minimal unsatisfiable clause sets and complete theorems in polynomial time, ensuring both soundness and minimality by construction. The LLM layer verbalizes each theorem and proof trace into coherent natural language explanations and actionable insights. Empirical studies across health care, compliance, and regulatory domains show that Delta1 and LLM enables interpretable, auditable, and domain aligned reasoning. This work advances the convergence of logic, language, and learning, positioning constructive theorem generation as a principled foundation for neuro-symbolic explainable AI.
- Abstract(参考訳): ニューロシンボリック推論は、論理の形式的な厳密さと大きな言語モデル(LLM)の解釈可能性とを結合するフレームワークをますます要求している。
LLMの完全三角標準矛盾(FTSC)に基づく自動定理生成装置Delta1を構築パイプラインに統合することで、終端説明可能性を実現する。
Delta1 は最小の満足できない節集合と完全定理を多項式時間で決定論的に構成し、構成による健全性と最小性の両方を保証する。
LLM層はそれぞれの定理と証明を言葉で表し、一貫性のある自然言語の説明と実行可能な洞察に辿り着く。
医療、コンプライアンス、規制ドメインに関する実証研究は、Delta1とLLMが解釈可能、監査可能、およびドメインに整合した推論を可能にしていることを示している。
この研究は、論理学、言語学、学習の収束を推し進め、構築的定理の生成を、ニューロシンボリックな説明可能なAIの原理的基礎として位置づける。
関連論文リスト
- Neurosymbolic Language Reasoning as Satisfiability Modulo Theory [17.539850467483323]
文書を自然言語テキスト制約(NLTC)として表すニューロシンボリック言語であるLogitextを紹介する。
我々は,LLMに基づく制約評価と満足度変調理論(SMT)の解法を統合するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2026-02-20T09:35:26Z) - Sound and Complete Neurosymbolic Reasoning with LLM-Grounded Interpretations [7.81820080453498]
大規模言語モデル(LLM)は、自然言語の理解と生成において印象的な能力を示している。
パラ一貫性論理に対する形式的意味論の解釈関数に LLM を直接統合する手法を提案する。
論文 参考訳(メタデータ) (2025-07-13T19:05:43Z) - DeepTheorem: Advancing LLM Reasoning for Theorem Proving Through Natural Language and Reinforcement Learning [67.93945726549289]
DeepTheoremは、数学的推論を強化するために自然言語を活用する包括的な非公式な定理証明フレームワークである。
DeepTheoremには、121Kの高品質なIMOレベルの非公式な定理と証明からなる大規模なベンチマークデータセットが含まれている。
我々は、証明された定理の変種を利用して堅牢な数学的推論を動機付けることによって、非公式な定理証明に適した新しい強化学習戦略(RL-Zero)を考案する。
論文 参考訳(メタデータ) (2025-05-29T17:59:39Z) - Reasoning-as-Logic-Units: Scaling Test-Time Reasoning in Large Language Models Through Logic Unit Alignment [21.12989936864145]
CoT(Chain-of-Thought)のプロンプトによって,大規模言語モデル(LLM)の推論能力の向上が期待できる。
本稿では、生成したプログラムと対応するNL記述との間に論理単位を整列させることにより、より信頼性の高い推論経路を構築するReasoning-as-Logic-Units (RaLU)を提案する。
論文 参考訳(メタデータ) (2025-02-05T08:23:18Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。