論文の概要: Hybrid Models for Natural Language Reasoning: The Case of Syllogistic Logic
- arxiv url: http://arxiv.org/abs/2510.09472v1
- Date: Fri, 10 Oct 2025 15:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.317923
- Title: Hybrid Models for Natural Language Reasoning: The Case of Syllogistic Logic
- Title(参考訳): 自然言語推論のためのハイブリッドモデル:シロジック論理の場合
- Authors: Manuel Vargas Guzmán, Jakub Szymanik, Maciej Malicki,
- Abstract要約: 本稿では,Sylological fragment をベンチマークとして,事前学習型大言語モデル(LLM)の論理一般化能力について検討する。
シンボリック推論とニューラル計算を組み合わせたハイブリッドアーキテクチャを提案する。
実験の結果,比較的小さな神経成分でも高い効率が維持できることがわかった。
- 参考スコア(独自算出の注目度): 3.421904493396495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the remarkable progress in neural models, their ability to generalize, a cornerstone for applications like logical reasoning, remains a critical challenge. We delineate two fundamental aspects of this ability: compositionality, the capacity to abstract atomic logical rules underlying complex inferences, and recursiveness, the aptitude to build intricate representations through iterative application of inference rules. In the literature, these two aspects are often confounded together under the umbrella term of generalization. To sharpen this distinction, we investigated the logical generalization capabilities of pre-trained large language models (LLMs) using the syllogistic fragment as a benchmark for natural language reasoning. Though simple, this fragment provides a foundational yet expressive subset of formal logic that supports controlled evaluation of essential reasoning abilities. Our findings reveal a significant disparity: while LLMs demonstrate reasonable proficiency in recursiveness, they struggle with compositionality. To overcome these limitations and establish a reliable logical prover, we propose a hybrid architecture integrating symbolic reasoning with neural computation. This synergistic interaction enables robust and efficient inference, neural components accelerate processing, while symbolic reasoning ensures completeness. Our experiments show that high efficiency is preserved even with relatively small neural components. As part of our proposed methodology, this analysis gives a rationale and highlights the potential of hybrid models to effectively address key generalization barriers in neural reasoning systems.
- Abstract(参考訳): ニューラルネットワークの顕著な進歩にもかかわらず、論理的推論のような応用の基礎である一般化能力は依然として重要な課題である。
構成性、複雑な推論に基づく原子論理規則を抽象化する能力、再帰性、推論規則の反復的適用を通じて複雑な表現を構築する能力の2つの基本的側面を述べる。
文学において、これらの2つの側面は、しばしば一般化の傘の言葉でまとめられる。
そこで我々は,Sylological fragment を自然言語推論のベンチマークとして用いて,事前学習した大規模言語モデル(LLM)の論理的一般化能力について検討した。
この断片は単純ではあるが、本質的な推論能力の評価を制御できる形式論理の基本的かつ表現力のあるサブセットを提供する。
LLMは再帰性に適した習熟度を示すが, 構成性に苦慮している。
これらの制約を克服し、信頼性の高い論理証明器を確立するために、シンボリック推論とニューラル計算を統合するハイブリッドアーキテクチャを提案する。
このシナジスティックな相互作用は、堅牢で効率的な推論を可能にし、ニューラルネットワークコンポーネントは処理を加速し、シンボリック推論は完全性を保証する。
実験の結果,比較的小さな神経成分でも高い効率が維持できることがわかった。
提案手法の一環として,本分析は,ニューラル推論システムにおいて重要な一般化障壁に効果的に対処するハイブリッドモデルの可能性を明らかにする。
関連論文リスト
- A Comparative Study of Neurosymbolic AI Approaches to Interpretable Logical Reasoning [0.0]
ドメインに依存しないタスクを推論する能力として定義された一般的な論理的推論は、大型言語モデル(LLM)の課題であり続けている。
近年、ニューラルネットワークに論理を組み込もうとするニューロシンボリックAIへの関心が高まっている。
まず、論理的推論を改善するための2つの主要なニューロシンボリックアプローチを同定する。
論文 参考訳(メタデータ) (2025-08-05T12:14:32Z) - From Chaos to Order: The Atomic Reasoner Framework for Fine-grained Reasoning in Large Language Models [46.02816479205161]
我々は,微粒な推論を可能にする認知推論戦略であるtextbfAtomic Reasoner(textbfAR)を提案する。
ARは推論プロセスを原子認知単位に分解し、認知的ルーティング機構を使用する。
結果より, 完全解探索の計算負担を伴わないARの優れた推論能力を示す。
論文 参考訳(メタデータ) (2025-03-20T08:34:53Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。