論文の概要: Cycle is All You Need: More Is Different
- arxiv url: http://arxiv.org/abs/2509.21340v1
- Date: Mon, 15 Sep 2025 21:48:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.751605
- Title: Cycle is All You Need: More Is Different
- Title(参考訳): サイクルは必要なだけ:もっと違う
- Authors: Xin Li,
- Abstract要約: 本稿では,サイクル閉鎖が記憶と意識の基本的なメカニズムである情報トポロジカルな枠組みを提案する。
メモリは静的なストアではなく、ニューラルステート空間で遅延サイクルに再突入できることが示されています。
永続不変式は非エルゴード環境における一般化を可能にする。
- 参考スコア(独自算出の注目度): 6.0044467881527614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose an information-topological framework in which cycle closure is the fundamental mechanism of memory and consciousness. Memory is not a static store but the ability to re-enter latent cycles in neural state space, with invariant cycles serving as carriers of meaning by filtering order-specific noise and preserving what persists across contexts. The dot-cycle dichotomy captures this: transient dots scaffold exploration, while nontrivial cycles encode low-entropy content invariants that stabilize memory. Biologically, polychronous neural groups realize 1-cycles through delay-locked spiking reinforced by STDP, nested within theta-gamma rhythms that enforce boundary cancellation. These micro-cycles compose hierarchically, extending navigation loops into general memory and cognition. The perception-action cycle introduces high-order invariance: closure holds even across sense-act alternations, generalizing ancestral homing behavior. Sheaf-cosheaf duality formalizes this process: sheaves glue perceptual fragments into global sections, cosheaves decompose global plans into actions and closure aligns top-down predictions with bottom-up cycles. Consciousness then arises as the persistence of high-order invariants that integrate (unity) yet differentiate (richness) across contexts. We conclude that cycle is all you need: persistent invariants enable generalization in non-ergodic environments with long-term coherence at minimal energetic cost.
- Abstract(参考訳): 本稿では,サイクル閉鎖が記憶と意識の基本的なメカニズムである情報トポロジカルな枠組みを提案する。
メモリは静的ストアではなく、順序固有のノイズをフィルタリングし、コンテキスト間で持続するものを保存することによって、意味のキャリアとして機能する不変サイクルを持つ、ニューラルステート空間で潜伏サイクルを再突入する機能である。
過渡点は足場探索を行い、非自明なサイクルはメモリを安定させる低エントロピー量の不変量を符号化する。
生物学的には、多周期神経群はSTDPによって強化された遅延ロックされたスパイクによって1サイクルを実現し、境界のキャンセルを強制するセタガンマリズム内にネストする。
これらのマイクロサイクルは階層的に構成され、ナビゲーションループを一般的な記憶と認知に拡張する。
知覚-行動サイクルは高次の不変性をもたらす: クロージャは感覚が作用する交互にさえも保持し、祖先のホーミング行動を一般化する。
シーフ・コシェフの双対性は、このプロセスを公式化する: 包括的断片をグローバルセクションに、コシェブはグローバルプランをアクションに分解し、クロージャはトップダウン予測をボトムアップサイクルと整合させる。
次に意識は、(ユニティ)を統合するが(リッチネス)を文脈間で区別する高階不変量の持続性として生じる。
永続不変式は、最小のエネルギーコストで長期コヒーレンスを持つ非エルゴード環境における一般化を可能にする。
関連論文リスト
- Memory as Structured Trajectories: Persistent Homology and Contextual Sheaves [5.234742752529437]
本稿では,メモリをスパースなトポロジカルなアトラクタの集合として形式化するデルタホモロジーのアナロジーを導入する。
ディラックデルタのような記憶トレースは、認知状態の潜在多様体上の非自明なホモロジー生成器と同一視される。
我々はこれらのデルタホモロジー生成体を低エントロピー量変数と解釈し、高エントロピー文脈変数は濾過、コホモロジークラス、あるいは層として二重に表現する。
論文 参考訳(メタデータ) (2025-08-01T23:03:13Z) - Information Must Flow: Recursive Bootstrapping for Information Bottleneck in Optimal Transport [5.234742752529437]
本研究では,認知を高エントロピーコンテキストと低エントロピーコンテンツ間の情報の流れとしてモデル化する統合フレームワークを提案する。
推論は双方向の相互作用のサイクルとして現れ、ボトムアップの文脈的曖昧さとトップダウンのコンテンツ再構成が組み合わせられる。
これに基づいて,個人間での推論サイクルを同期させるために,潜在コンテンツを外部化することで,言語がシンボリックトランスポートシステムとして出現することを提案する。
論文 参考訳(メタデータ) (2025-07-08T13:56:50Z) - Flow-Based Non-stationary Temporal Regime Causal Structure Learning [49.77103348208835]
因果発見のための統合フレームワークであるFANTOMを紹介する。
非定常過程と非ガウス的および異方性雑音を扱う。
同時にレジームの数と対応するインデックスを推測し、各レジームのディレクテッド・アサイクリックグラフを学習する。
論文 参考訳(メタデータ) (2025-06-20T15:12:43Z) - Neuron: Learning Context-Aware Evolving Representations for Zero-Shot Skeleton Action Recognition [64.56321246196859]
本稿では,dUalスケルトン・セマンティック・セマンティック・セマンティック・セマンティック・シンジスティック・フレームワークを提案する。
まず、時空間進化型マイクロプロトタイプを構築し、動的コンテキスト認識側情報を統合する。
本研究では,空間的圧縮と時間的記憶機構を導入し,空間的時間的マイクロプロトタイプの成長を導く。
論文 参考訳(メタデータ) (2024-11-18T05:16:11Z) - Back to the Continuous Attractor [4.866486451835401]
連続誘引器は、連続値変数を無限に長い時間間隔の連続系状態に保存するためのユニークな解のクラスを提供する。
残念なことに、連続引力は一般に深刻な構造不安定に悩まされ、それらを定義する力学則のほとんど無限小の変化によって破壊される。
理論神経科学モデルにおける連続的誘引子からの分岐は、様々な構造的に安定な形態を示す。
持続多様体理論に基づいて、連続的誘引子の分岐と近似との共通性を説明する。
論文 参考訳(メタデータ) (2024-07-31T18:37:05Z) - Analysis of the Memorization and Generalization Capabilities of AI
Agents: Are Continual Learners Robust? [91.682459306359]
連続学習(CL)では、AIエージェントが動的環境下で非定常データストリームから学習する。
本稿では,過去の知識を維持しつつ,動的環境への堅牢な一般化を実現するための新しいCLフレームワークを提案する。
提案フレームワークの一般化と記憶性能を理論的に解析した。
論文 参考訳(メタデータ) (2023-09-18T21:00:01Z) - On Delta-Homology Analogy: Memory as Structured Trajectories [5.234742752529437]
本稿では,メモリをスパース,トポロジカルに既約なアトラクタの集合として形式化するEmphdelta-Homologyアナロジーを紹介した。
この類似性に基づいて,スパイク最適化力学と永続的ホモロジーの構造を基盤とした,記憶と推論のためのトポロジ的枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-07T19:47:01Z) - Fingerprint and universal Markovian closure of structured bosonic
environments [53.869623568923515]
本研究では, ボソニック環境のチェーンマッピング変換の特性を利用して, 環境の特徴的特徴, 指紋を捉えることができる有限なモードの集合を同定する。
マルコフ閉包は、標準連鎖写像技術に関して二次的なスピードアップを提供することを示す。
論文 参考訳(メタデータ) (2022-08-03T11:08:50Z) - Discrete Variational Attention Models for Language Generation [51.88612022940496]
本稿では,言語における離散性に起因する注意機構のカテゴリー分布を考慮した離散的変動注意モデルを提案する。
離散性の特質により,提案手法の訓練は後部崩壊に支障を来さない。
論文 参考訳(メタデータ) (2020-04-21T05:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。