論文の概要: The Geometry of Reasoning: Flowing Logics in Representation Space
- arxiv url: http://arxiv.org/abs/2510.09782v1
- Date: Fri, 10 Oct 2025 18:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.623094
- Title: The Geometry of Reasoning: Flowing Logics in Representation Space
- Title(参考訳): 推論の幾何学:表現空間における流れの論理
- Authors: Yufa Zhou, Yixiao Wang, Xunjian Yin, Shuyan Zhou, Anru R. Zhang,
- Abstract要約: 大規模言語モデル(LLM)が表現空間を通してどのように考えるかを研究する。
フローとしてのLCMの推論をモデル化する新しい幾何学的枠組みを提案する。
- 参考スコア(独自算出の注目度): 27.047532187192278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study how large language models (LLMs) ``think'' through their representation space. We propose a novel geometric framework that models an LLM's reasoning as flows -- embedding trajectories evolving where logic goes. We disentangle logical structure from semantics by employing the same natural deduction propositions with varied semantic carriers, allowing us to test whether LLMs internalize logic beyond surface form. This perspective connects reasoning with geometric quantities such as position, velocity, and curvature, enabling formal analysis in representation and concept spaces. Our theory establishes: (1) LLM reasoning corresponds to smooth flows in representation space, and (2) logical statements act as local controllers of these flows' velocities. Using learned representation proxies, we design controlled experiments to visualize and quantify reasoning flows, providing empirical validation of our theoretical framework. Our work serves as both a conceptual foundation and practical tools for studying reasoning phenomenon, offering a new lens for interpretability and formal analysis of LLMs' behavior.
- Abstract(参考訳): 大規模言語モデル (LLMs) ``think') を表現空間を通してどのように研究する。
我々はLLMの推論をフローとしてモデル化する新しい幾何学的フレームワークを提案する。
我々は,LLMが論理を表面形式を超えて内部化するかどうかを検証できるように,異なる意味キャリアを持つ同じ自然な推論命題を用いて意味論から論理構造を分離する。
この観点は、推論と位置、速度、曲率などの幾何学的量とを結びつけ、表現空間と概念空間の形式的解析を可能にする。
LLM推論は表現空間の滑らかな流れに対応し、(2)論理文はこれらの流れの速度の局所的な制御器として機能する。
学習した表現プロキシを用いて、推論フローを可視化し、定量化するための制御された実験を設計し、理論的枠組みの実証的な検証を提供する。
我々の研究は推論現象を研究するための概念的基礎と実践的ツールとして機能し、LLMの動作の解釈可能性とフォーマルな分析のための新しいレンズを提供する。
関連論文リスト
- Sound and Complete Neurosymbolic Reasoning with LLM-Grounded Interpretations [7.81820080453498]
大規模言語モデル(LLM)は、自然言語の理解と生成において印象的な能力を示している。
パラ一貫性論理に対する形式的意味論の解釈関数に LLM を直接統合する手法を提案する。
論文 参考訳(メタデータ) (2025-07-13T19:05:43Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。