論文の概要: Information Topology
- arxiv url: http://arxiv.org/abs/2210.03850v3
- Date: Mon, 13 Oct 2025 13:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 14:23:56.633571
- Title: Information Topology
- Title(参考訳): 情報トポロジー
- Authors: Xin Li,
- Abstract要約: 本稿では,情報理論と代数的トポロジーを統合するフレームワークであるEmphInformation Topologyを紹介する。
スタートポイントは、順不変で予測的構造(サイクル)から点的に、順序に敏感な揺らぎ(ドット)を分離するエンファンドットサイクル二分法である。
次に,Shannonキャパシティのトポロジ的双対であるエンフォロジーキャパシティを,システムによって支えられる独立した情報サイクルの数として定義する。
- 参考スコア(独自算出の注目度): 6.0044467881527614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We introduce \emph{Information Topology}: a framework that unifies information theory and algebraic topology by treating \emph{cycle closure} as the primitive operation of inference. The starting point is the \emph{dot-cycle dichotomy}, which separates pointwise, order-sensitive fluctuations (dots) from order-invariant, predictive structure (cycles). Algebraically, closure is the cancellation of boundaries ($\partial^2=0$), which converts transient histories into stable invariants. Building on this, we derive the \emph{Structure-Before-Specificity} (SbS) principle: stable information resides in nontrivial homology classes that persist under perturbations, while high-entropy contextual details act as scaffolds. The \emph{Context-Content Uncertainty Principle} (CCUP) quantifies this balance by decomposing uncertainty into contextual spread and content precision, showing why prediction requires invariance for generalization. Measure concentration onto residual invariant manifolds explains \emph{order invariance}: when mass collapses to a narrow tube around a closed cycle, reparameterizations of micro-steps leave predictive functionals unchanged. We then define \emph{homological capacity}, the topological dual of Shannon capacity, as the sustainable number of independent informational cycles supported by a system. This capacity links dynamical (KS) entropy to structural (homological) capacity and refines Euler characteristics from a ``net'' summary to a ``gross'' count of persistent invariants. Finally, we illustrate the theory across three domains where \emph{more is different}: \textbf{visual binding}, \textbf{working memory}, and \textbf{access consciousness}. Together, these results recast inference, learning, and communication as \emph{topological stabilization}: the formation, closure, and persistence of informational cycles that make prediction robust and scalable.
- Abstract(参考訳): 本稿では,情報理論と代数的トポロジーを統一するフレームワークである<emph{information Topology}を紹介する。
出発点となるのが 'emph{dot-cycle dichotomy} であり、点ごとに順序に敏感な揺らぎ (dots) を順序不変な予測構造 (cycles) から分離する。
代数的には、閉包は境界($\partial^2=0$)のキャンセルであり、過渡的な歴史を安定な不変量に変換する。
安定な情報は摂動の下で持続する非自明なホモロジークラスに存在し、高エントロピーの文脈的詳細は足場として機能する。
\emph{Context-Content Uncertainty Principle} (CCUP) は、不確実性を文脈拡散と内容精度に分解することでこのバランスを定量化し、なぜ予測が一般化のために不変性を必要とするのかを示す。
残留不変多様体への濃度の測定は、'emph{order invariance} を説明する: 閉じたサイクルの周りの狭いチューブに質量が崩壊すると、マイクロステップの再パラメータ化は予測関数をそのまま残す。
次に、シャノン容量のトポロジ的双対である 'emph{homological capacity} を、システムによって支えられる独立した情報サイクルの持続的な数として定義する。
このキャパシティは、動的(KS)エントロピーを構造的(ホモロジー的)キャパシティにリンクし、 Euler 特性を ``net'' の要約から ``gross'' の持続不変量の数へと洗練させる。
最後に、emph{more is different}: \textbf{visual binding}, \textbf{working memory}, \textbf{ Accessconscious}の3つの領域にまたがる理論を説明する。
これらの結果は、推論、学習、コミュニケーションを、堅牢でスケーラブルな情報サイクルの形成、閉鎖、永続性として、"emph{topological stabilization}"として再放送する。
関連論文リスト
- Sequential-Parallel Duality in Prefix Scannable Models [68.39855814099997]
近年では Gated Linear Attention (GLA) や Mamba など様々なモデルが開発されている。
ニアコンスタント時間並列評価と線形時間、定数空間シーケンシャル推論をサポートするニューラルネットワークモデルの全クラスを特徴付けることができるだろうか?
論文 参考訳(メタデータ) (2025-06-12T17:32:02Z) - Spectral Architecture Search for Neural Network Models [0.0]
本稿では,層間転送行列のスペクトル特性を利用した新しいアーキテクチャ探索プロトコルを提案する。
提案手法は, 最小限の表現率を有する自己創出型アーキテクチャで, 調査対象のタスクを処理可能であることを示す。
論文 参考訳(メタデータ) (2025-04-01T15:14:30Z) - Topological Deep Learning with State-Space Models: A Mamba Approach for Simplicial Complexes [4.787059527893628]
本稿では,Mamba状態空間モデルをバックボーンとして利用して,単純な複素数を扱うように設計された新しいアーキテクチャを提案する。
提案手法は, 隣接セルをベースとしたノードのシーケンスを生成し, ランクに関わらず, 上位構造間の直接通信を可能にする。
論文 参考訳(メタデータ) (2024-09-18T14:49:25Z) - Learnable & Interpretable Model Combination in Dynamic Systems Modeling [0.0]
我々は、通常、どのモデルが組み合わされるかについて議論し、様々な混合方程式に基づくモデルを表現することができるモデルインターフェースを提案する。
本稿では,2つの組み合わせモデル間の汎用的な接続を,容易に解釈可能な方法で記述できる新しいワイルドカードトポロジーを提案する。
本稿では、2つのモデル間の異なる接続トポロジを学習し、解釈し、比較する。
論文 参考訳(メタデータ) (2024-06-12T11:17:11Z) - A Fixed-Point Approach for Causal Generative Modeling [20.88890689294816]
本稿では,構造因果モデル(Structure Causal Models, SCM)を因果順序付き変数の固定点問題として記述する新しい形式論を提案する。
トポロジカル順序付け(TO)を考えると,その特異な回復のために最も弱い既知の条件を確立する。
論文 参考訳(メタデータ) (2024-04-10T12:29:05Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Redefining Neural Architecture Search of Heterogeneous Multi-Network
Models by Characterizing Variation Operators and Model Components [71.03032589756434]
複素領域における異なる変動演算子の効果について検討する。
モデルの複雑さと性能に影響を及ぼす変化演算子と、それを構成する異なる部分の質を推定する様々な指標に依存するモデルの両方を特徴付ける。
論文 参考訳(メタデータ) (2021-06-16T17:12:26Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Generalising Recursive Neural Models by Tensor Decomposition [12.069862650316262]
テンソル型定式化を利用した構造文脈のモデルアグリゲーションに対する一般的なアプローチを提案する。
パラメータ空間の大きさの指数関数的成長は、タッカー分解に基づく近似によって制御できることを示す。
これにより、隠れたサイズ、計算複雑性、モデル一般化によって制御される符号化の表現性の間のトレードオフを効果的に制御できる。
論文 参考訳(メタデータ) (2020-06-17T17:28:19Z) - Collegial Ensembles [11.64359837358763]
我々は,群畳み込みと対角線ブロックを用いた実用的アーキテクチャにおいて,コレギアルアンサンブルを効率的に実装可能であることを示す。
また、一つのモデルをトレーニングすることなく、最適なグループ畳み込みモジュールを解析的に導き出すために、我々のフレームワークをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-06-13T16:40:26Z) - Segmentation and Recovery of Superquadric Models using Convolutional
Neural Networks [2.454342521577328]
畳み込みニューラルネットワーク(CNN)を中心に構築された(二段階)アプローチを提案する。
第1段階では,提案手法はMask RCNNモデルを用いて,深度シーンにおける超クワッドリックな構造を同定する。
我々は、少数の解釈可能なパラメータを持つ複雑な構造を記述することができる。
論文 参考訳(メタデータ) (2020-01-28T18:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。