論文の概要: Towards a Mechanistic Understanding of Propositional Logical Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.04260v1
- Date: Wed, 07 Jan 2026 04:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.833164
- Title: Towards a Mechanistic Understanding of Propositional Logical Reasoning in Large Language Models
- Title(参考訳): 大規模言語モデルにおける命題論理推論の機械的理解に向けて
- Authors: Danchun Chen, Qiyao Yan, Liangming Pan,
- Abstract要約: PropLogic-MI上のQwen3 (8Bと14B)の解析 - 1ホップと2ホップの推論にまたがる11の命題論理ルールカテゴリにまたがるデータセット。
解析により、4つのインターロック機構からなるコヒーレントな計算構造が明らかになった。
これらのメカニズムは、モデルスケール、ルールタイプ、推論深さをまたいで一般化され、LLMが論理的推論のために構造化された計算戦略を採用するという機械的証拠を提供する。
- 参考スコア(独自算出の注目度): 31.709549159768727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how Large Language Models (LLMs) perform logical reasoning internally remains a fundamental challenge. While prior mechanistic studies focus on identifying taskspecific circuits, they leave open the question of what computational strategies LLMs employ for propositional reasoning. We address this gap through comprehensive analysis of Qwen3 (8B and 14B) on PropLogic-MI, a controlled dataset spanning 11 propositional logic rule categories across one-hop and two-hop reasoning. Rather than asking ''which components are necessary,'' we ask ''how does the model organize computation?'' Our analysis reveals a coherent computational architecture comprising four interlocking mechanisms: Staged Computation (layer-wise processing phases), Information Transmission (information flow aggregation at boundary tokens), Fact Retrospection (persistent re-access of source facts), and Specialized Attention Heads (functionally distinct head types). These mechanisms generalize across model scales, rule types, and reasoning depths, providing mechanistic evidence that LLMs employ structured computational strategies for logical reasoning.
- Abstract(参考訳): 大言語モデル(LLM)が論理的推論を内部でどのように実行するかを理解することは、依然として根本的な課題である。
従来の機械学的な研究はタスク固有回路の同定に重点を置いていたが、LLMが命題推論にどのような計算戦略を採用するのかという疑問は残る。
PropLogic-MI上でのQwen3 (8B, 14B) の包括的解析を通じて,このギャップに対処する。
我々は,「どのコンポーネントが必要なのか」を問うのではなく,「モデルがどのように計算を整理するのか」を問うのではなく,段階的計算(階層的処理フェーズ),情報伝達(境界トークンにおける情報フローの集約),ファクト・レトロスペクティブ(情報源事実の永続的再アクセス),特化アテンションヘッド(機能的に異なるヘッドタイプ)という4つのインターロック機構からなるコヒーレントな計算アーキテクチャを明らかにする。
これらのメカニズムは、モデルスケール、ルールタイプ、推論深さをまたいで一般化され、LLMが論理的推論のために構造化された計算戦略を採用するという機械的証拠を提供する。
関連論文リスト
- Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning [8.248971739035746]
大型言語モデル (LLM) は、記号的推論、算術的精度、論理的整合性を必要とするタスクにおいて、表面流速が著しく低下するが、体系的に失敗する。
本稿では,このような障害の構造的診断を行い,テキスト理解とテキストコンピテンスの間に持続的なギャップがあることを明らかにする。
我々はこの現象を,命令経路と行動経路が幾何学的に,機能的に二分される計算テキストスプリット・ブレイン症候群と呼ぶ。
論文 参考訳(メタデータ) (2025-07-14T04:01:45Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Logic Agent: Enhancing Validity with Logic Rule Invocation [24.815341366820753]
Chain-of-Thoughtプロンプトは、推論タスク中に言語モデルの推論能力を増強するための重要なテクニックとして現れている。
本稿では,大規模言語モデルにおける推論プロセスの有効性向上を目的としたエージェントベースのフレームワークであるLogic Agent(LA)を紹介する。
論文 参考訳(メタデータ) (2024-04-28T10:02:28Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。