論文の概要: Memory as Structured Trajectories: Persistent Homology and Contextual Sheaves
- arxiv url: http://arxiv.org/abs/2508.11646v1
- Date: Fri, 01 Aug 2025 23:03:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.470451
- Title: Memory as Structured Trajectories: Persistent Homology and Contextual Sheaves
- Title(参考訳): 構造軌道としての記憶--恒常的ホモロジーと文脈シーブ-
- Authors: Xin Li,
- Abstract要約: 本稿では,メモリをスパースなトポロジカルなアトラクタの集合として形式化するデルタホモロジーのアナロジーを導入する。
ディラックデルタのような記憶トレースは、認知状態の潜在多様体上の非自明なホモロジー生成器と同一視される。
我々はこれらのデルタホモロジー生成体を低エントロピー量変数と解釈し、高エントロピー文脈変数は濾過、コホモロジークラス、あるいは層として二重に表現する。
- 参考スコア(独自算出の注目度): 5.234742752529437
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose a topological framework for memory and inference grounded in the structure of spike-timing dynamics, persistent homology, and the Context-Content Uncertainty Principle (CCUP). Starting from the observation that polychronous neural groups (PNGs) encode reproducible, time-locked spike sequences shaped by axonal delays and synaptic plasticity, we construct spatiotemporal complexes whose temporally consistent transitions define chain complexes over which robust activation cycles emerge. These activation loops are abstracted into cell posets, enabling a compact and causally ordered representation of neural activity with overlapping and compositional memory traces. We introduce the delta-homology analogy, which formalizes memory as a set of sparse, topologically irreducible attractors. A Dirac delta-like memory trace is identified with a nontrivial homology generator on a latent manifold of cognitive states. Such traces are sharply localized along reproducible topological cycles and are only activated when inference trajectories complete a full cycle. They encode minimal, path-dependent memory units that cannot be synthesized from local features alone. We interpret these delta-homology generators as the low-entropy content variable, while the high-entropy context variable is represented dually as a filtration, cohomology class, or sheaf over the same latent space. Inference is recast as a dynamic alignment between content and context and coherent memory retrieval corresponds to the existence of a global section that selects and sustains a topological generator. Memory is no longer a static attractor or distributed code, but a cycle-completing, structure-aware inference process.
- Abstract(参考訳): 本稿では,スパイク・タイピング・ダイナミクス,永続的ホモロジー,文脈-連続不確実性原理(CCUP)の構造を基礎とした,記憶と推論のためのトポロジ的フレームワークを提案する。
軸索の遅延やシナプスの可塑性によって形成される、再現可能な時間ロックされたスパイク配列をポリ同期神経群(PNG)がコードする観察から始まり、時間的に一貫した遷移が堅牢な活性化周期が出現する連鎖複合体を定義する時空間複合体を構築した。
これらの活性化ループはセルポゼに抽象化され、重複したメモリトレースと構成記憶トレースを持つ神経活動のコンパクトで因果的に順序付けられた表現を可能にする。
本稿では,メモリをスパースなトポロジカルなアトラクタの集合として形式化するデルタホモロジーのアナロジーを導入する。
ディラックデルタのような記憶トレースは、認知状態の潜在多様体上の非自明なホモロジー生成器と同一視される。
このようなトレースは再現可能なトポロジカル環に沿って急激に局在し、推論軌道が全周期を完了したときにのみ活性化される。
ローカル機能だけでは合成できない最小限のパス依存メモリユニットをエンコードする。
これらのデルタホモロジー生成体を低エントロピー内容変数と解釈し、高エントロピー文脈変数はフィルター、コホモロジークラス、あるいは同じ潜在空間上の層として二重に表される。
推論はコンテントとコンテクストの動的アライメントとして再キャストされ、コヒーレントメモリ検索は、トポロジカルジェネレータを選択し維持するグローバルセクションの存在に対応する。
メモリはもはや静的なアトラクターや分散コードではなく、サイクル補完、構造対応推論プロセスである。
関連論文リスト
- Beyond Turing: Memory-Amortized Inference as a Foundation for Cognitive Computation [5.234742752529437]
本稿では,メモリの潜時サイクル上での認識を推論としてモデル化する形式的フレームワークとして,メモリ記憶推論(MAI)を紹介した。
我々は,MAIがMountcastleのUniversal Cortical Algorithmの基本的な基盤を提供することを示す。
人工知能の実現にMAIが与える深い影響について,簡潔に論じる。
論文 参考訳(メタデータ) (2025-08-19T15:10:26Z) - Cycle-Consistent Helmholtz Machine: Goal-Seeded Simulation via Inverted Inference [5.234742752529437]
emphCycle-Consistent Helmholtz Machine (C$2$HM)を紹介する。
C$2$HM reframes inference as a emphgoal-seeded, emphasymmetric process grounded in structureed internal priors。
古典的償却推論に代わる生物学的にインスパイアされた代替手段を提供することにより、$C2$HMは生成モデリングを意図的シミュレーションとして再考する。
論文 参考訳(メタデータ) (2025-07-03T17:24:27Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Latent Structured Hopfield Network for Semantic Association and Retrieval [52.634915010996835]
エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
本稿では,連続ホップフィールドアトラクタダイナミクスを自動エンコーダアーキテクチャに統合するフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
従来のホップフィールドネットワークとは異なり、我々のモデルは勾配勾配でエンドツーエンドに訓練され、スケーラブルで堅牢なメモリ検索を実現する。
論文 参考訳(メタデータ) (2025-06-02T04:24:36Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Back to the Continuous Attractor [4.866486451835401]
連続誘引器は、連続値変数を無限に長い時間間隔の連続系状態に保存するためのユニークな解のクラスを提供する。
残念なことに、連続引力は一般に深刻な構造不安定に悩まされ、それらを定義する力学則のほとんど無限小の変化によって破壊される。
理論神経科学モデルにおける連続的誘引子からの分岐は、様々な構造的に安定な形態を示す。
持続多様体理論に基づいて、連続的誘引子の分岐と近似との共通性を説明する。
論文 参考訳(メタデータ) (2024-07-31T18:37:05Z) - On Delta-Homology Analogy: Memory as Structured Trajectories [5.234742752529437]
本稿では,メモリをスパース,トポロジカルに既約なアトラクタの集合として形式化するEmphdelta-Homologyアナロジーを紹介した。
この類似性に基づいて,スパイク最適化力学と永続的ホモロジーの構造を基盤とした,記憶と推論のためのトポロジ的枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-07T19:47:01Z) - Dynamical solitons and boson fractionalization in cold-atom topological
insulators [110.83289076967895]
Incommensurate densities において $mathbbZ$ Bose-Hubbard モデルについて検討する。
我々は、$mathbbZ$フィールドの欠陥が基底状態にどのように現れ、異なるセクターを接続するかを示す。
ポンピングの議論を用いて、有限相互作用においても生き残ることを示す。
論文 参考訳(メタデータ) (2020-03-24T17:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。