論文の概要: Memory-Amortized Inference: A Topological Unification of Search, Closure, and Structure
- arxiv url: http://arxiv.org/abs/2512.05990v1
- Date: Fri, 28 Nov 2025 16:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.501201
- Title: Memory-Amortized Inference: A Topological Unification of Search, Closure, and Structure
- Title(参考訳): メモリ・アモータイズド推論:検索・クロージャ・構造のトポロジ的統一
- Authors: Xin Li,
- Abstract要約: 単一の幾何学基板の位相遷移として学習と記憶を統一する形式的フレームワークであるtextbfMemory-Amortized Inference (MAI) を提案する。
我々は,高複雑さ探索を低複雑さ検索に変換することによって認知が機能することを示す。
この枠組みは、遅い思考(推論)から速い思考(直観)の出現に関する厳密な説明を提供する。
- 参考スコア(独自算出の注目度): 6.0044467881527614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Contemporary ML separates the static structure of parameters from the dynamic flow of inference, yielding systems that lack the sample efficiency and thermodynamic frugality of biological cognition. In this theoretical work, we propose \textbf{Memory-Amortized Inference (MAI)}, a formal framework rooted in algebraic topology that unifies learning and memory as phase transitions of a single geometric substrate. Central to our theory is the \textbf{Homological Parity Principle}, which posits a fundamental dichotomy: even-dimensional homology ($H_{even}$) physically instantiates stable \textbf{Content} (stable scaffolds or ``what''), while odd-dimensional homology ($H_{odd}$) instantiates dynamic \textbf{Context} (dynamic flows or ``where''). We derive the logical flow of MAI as a topological trinity transformation: \textbf{Search $\to$ Closure $\to$ Structure}. Specifically, we demonstrate that cognition operates by converting high-complexity recursive search (modeled by \textit{Savitch's Theorem} in NPSPACE) into low-complexity lookup (modeled by \textit{Dynamic Programming} in P) via the mechanism of \textbf{Topological Cycle Closure}. We further show that this consolidation process is governed by a topological generalization of the Wake-Sleep algorithm, functioning as a coordinate descent that alternates between optimizing the $H_{odd}$ flow (inference/wake) and condensing persistent cycles into the $H_{even}$ scaffold (learning/sleep). This framework offers a rigorous explanation for the emergence of fast-thinking (intuition) from slow-thinking (reasoning) and provides a blueprint for post-Turing architectures that compute via topological resonance.
- Abstract(参考訳): 現代のMLは、パラメータの静的構造を推論の動的フローから切り離し、生物学的認知の標本効率と熱力学的剛性に欠けるシステムを産み出す。
本稿では,代数的トポロジに根ざした形式的フレームワークであるtextbf{Memory-Amortized Inference (MAI)を提案する。
等次元ホモロジー(H_{even}$)は安定な \textbf{Content} (安定な足場または 'what'') を物理的にインスタンス化し、奇次元ホモロジー(H_{odd}$)は動的 \textbf{Context} (ダイナミックフローまたは '`where'') をインスタンス化する。
MAI の論理フローは、トポロジカルトリニティ変換として導かれる: \textbf{Search $\to$ Closure $\to$ Structure}。
具体的には,高複素度再帰探索(NPSPACE では \textit{Savitch's Theorem} でモデル化)を低複素度検索(P では \textit{Dynamic Programming} でモデル化)に \textbf{Topological Cycle Closure を用いて変換することにより,認知が機能することを実証する。
さらに、この統合過程は、Wake-Sleepアルゴリズムの位相的一般化によって制御され、$H_{odd}$フロー(推論/ウェイク)の最適化と、$H_{even}$足場(学習/スリープ)への持続サイクルの凝縮を交互に行う座標降下として機能することを示す。
このフレームワークは、スロー思考(推論)から高速思考(直観)の出現を厳格に説明し、トポロジカル共鳴を通して計算するポストチューリングアーキテクチャーの青写真を提供する。
関連論文リスト
- Unifying Tree Search Algorithm and Reward Design for LLM Reasoning: A Survey [92.71325249013535]
線形木探索はLarge Language Model (LLM) 研究の基盤となっている。
本稿では,検索アルゴリズムを3つのコアコンポーネントに分解する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-11T03:29:18Z) - Memory as Structured Trajectories: Persistent Homology and Contextual Sheaves [5.234742752529437]
本稿では,メモリをスパースなトポロジカルなアトラクタの集合として形式化するデルタホモロジーのアナロジーを導入する。
ディラックデルタのような記憶トレースは、認知状態の潜在多様体上の非自明なホモロジー生成器と同一視される。
我々はこれらのデルタホモロジー生成体を低エントロピー量変数と解釈し、高エントロピー文脈変数は濾過、コホモロジークラス、あるいは層として二重に表現する。
論文 参考訳(メタデータ) (2025-08-01T23:03:13Z) - Cycle-Consistent Helmholtz Machine: Goal-Seeded Simulation via Inverted Inference [5.234742752529437]
emphCycle-Consistent Helmholtz Machine (C$2$HM)を紹介する。
C$2$HM reframes inference as a emphgoal-seeded, emphasymmetric process grounded in structureed internal priors。
古典的償却推論に代わる生物学的にインスパイアされた代替手段を提供することにより、$C2$HMは生成モデリングを意図的シミュレーションとして再考する。
論文 参考訳(メタデータ) (2025-07-03T17:24:27Z) - On Context-Content Uncertainty Principle [5.234742752529437]
我々は、コンテキスト-コンテンツ不確実性原理から運用原則を導出する階層計算フレームワークを開発する。
基盤レベルでは、CCUPは推論を方向性エントロピー最小化として定式化し、コンテンツファーストの構造化を好む変分勾配を確立する。
本稿では,形式的同値定理,原理間の依存格子,CCUP型推論の効率性向上を示す計算シミュレーションを提案する。
論文 参考訳(メタデータ) (2025-06-25T17:21:19Z) - Geometric Meta-Learning via Coupled Ricci Flow: Unifying Knowledge Representation and Quantum Entanglement [7.410691988131121]
本稿では,3つの基礎的革新を通じて,幾何学的フローと深層学習を統合した統一的な枠組みを確立する。
まず,パラメータ空間の幾何を動的に適用し,景観トポロジーを損なう熱力学的に結合したリッチフローを提案する。
第2に、曲率の爆発解析により、明示的な位相遷移閾値と臨界学習率を導出する。
第3に、ニューラルネットワークと共形場理論のAdS/CFT型ホログラフィック双対性(Theoremrefthm:ads)を確立する。
論文 参考訳(メタデータ) (2025-03-25T17:32:31Z) - Understanding Token-level Topological Structures in Transformer-based Time Series Forecasting [52.364260925700485]
Transformer-based method has achieved state-of-the-art performance in time series forecasting (TSF)
既存のトランスフォーマーが中間層全体を通してトークン間の固有位相構造を完全に活用しているかどうかは不明である。
トークンレベルのトポロジを明示的にかつ適応的に保存するトランスフォーマーベースの新しいTSF手法であるトポロジ拡張法(TEM)を提案する。
論文 参考訳(メタデータ) (2024-04-16T07:21:39Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。