論文の概要: The Geometry of Abstraction: Continual Learning via Recursive Quotienting
- arxiv url: http://arxiv.org/abs/2512.18471v1
- Date: Sat, 20 Dec 2025 19:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.353731
- Title: The Geometry of Abstraction: Continual Learning via Recursive Quotienting
- Title(参考訳): 抽象の幾何学:再帰的論理による継続的な学習
- Authors: Xin Li,
- Abstract要約: 連続学習システムは、平面多様体問題という基本的な幾何学的障壁に直面している。
本稿では,このパラドックスに対して,再帰的計量の縮約に基づく幾何学的解法を提案する。
ニューラルネットワークのトークンは特異点やワームホールとして物理的に実現可能であることを示す。
- 参考スコア(独自算出の注目度): 6.0044467881527614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Continual learning systems operating in fixed-dimensional spaces face a fundamental geometric barrier: the flat manifold problem. When experience is represented as a linear trajectory in Euclidean space, the geodesic distance between temporal events grows linearly with time, forcing the required covering number to diverge. In fixed-dimensional hardware, this volume expansion inevitably forces trajectory overlap, manifesting as catastrophic interference. In this work, we propose a geometric resolution to this paradox based on Recursive Metric Contraction. We formalize abstraction not as symbolic grouping, but as a topological deformation: a quotient map that collapses the metric tensor within validated temporal neighborhoods, effectively driving the diameter of local sub-manifolds to zero. We substantiate our framework with four rigorous results. First, the Bounded Capacity Theorem establishes that recursive quotient maps allow the embedding of arbitrarily long trajectories into bounded representational volumes, trading linear metric growth for logarithmic topological depth. Second, the Topological Collapse Separability Theorem, derived via Urysohn's Lemma, proves that recursive quotienting renders non-linearly separable temporal sequences linearly separable in the limit, bypassing the need for infinite-dimensional kernel projections. Third, the Parity-Partitioned Stability Theorem solves the catastrophic forgetting problem by proving that if the state space is partitioned into orthogonal flow and scaffold manifolds, the metric deformations of active learning do not disturb the stability of stored memories. Our analysis reveals that tokens in neural architectures are physically realizable as singularities or wormholes, regions of extreme positive curvature that bridge distant points in the temporal manifold.
- Abstract(参考訳): 固定次元空間で動作する連続学習システムは、平面多様体問題という基本的な幾何学的障壁に直面している。
ユークリッド空間において経験が線形軌跡として表されるとき、時空事象間の測地距離は時間とともに直線的に増加し、必要な被覆数はばらばらになる。
固定次元ハードウェアでは、この体積拡大は必然的に軌道の重なりを強制し、破滅的な干渉として現れる。
本研究では,このパラドックスに対する再帰的メートル法契約に基づく幾何学的解法を提案する。
我々は抽象を記号的群化ではなく、位相的変形として定式化し、検証された時間近傍で計量テンソルを崩壊させ、局所部分多様体の直径をゼロに駆動する商写像を定式化する。
4つの厳格な結果で我々の枠組みを裏付ける。
第一に、境界容量定理は、帰納的商写像により、任意の長い軌跡を有界な表現体積に埋め込むことができ、対数的位相深さの線形計量成長を貿易することができることを証明している。
第二に、UrysohnのLemmaによって導かれたトポロジカル・コラプス・セパビリティ・セオリームは、再帰的商化が無限次元の核射影の必要性を回避し、極限において線形に分離可能な非線型な時間列を描画することを証明している。
第三に、Parity-Partitioned Stability Theoremは、状態空間が直交フローと足場多様体に分割されている場合、アクティブラーニングのメートル法変形が記憶記憶の安定性を乱さないことを証明して、破滅的な忘れ問題を解く。
解析の結果, ニューラルネットワークのトークンは特異点やワームホールとして物理的に実現可能であることが明らかとなった。
関連論文リスト
- Manifold Percolation: from generative model to Reinforce learning [0.26905021039717986]
生成的モデリングは通常、学習マッピング規則としてフレーム化されるが、これらの規則にアクセスできない観察者の視点からすると、そのタスクは確率分布から幾何学的支援を引き離すことになる。
本研究は, サンプリングプロセスが, 高次元密度推定を支持面上の幾何カウント問題に効果的に投射するので, 連続体パーコレーションは, この支援解析に一意に適していることを示す。
論文 参考訳(メタデータ) (2025-11-25T17:12:42Z) - TokenBlowUp: Resolving Representational Singularities in LLM Token Spaces via Monoidal Transformations [0.9179857807576733]
最近の研究は、大規模言語モデルのトークン埋め込み空間に対する基礎多様体仮説に挑戦する説得力のある証拠を提供している。
我々はこの問題をスキーム理論の言語で定式化し、スキーム理論のブローアップを各特異点に適用することにより厳密な解法を提案する。
我々は、この新しい空間の幾何学的正則化を保証する公式な定理を証明し、元の病理が解決されたことを示す。
論文 参考訳(メタデータ) (2025-07-26T02:39:54Z) - Nonlinearity-driven Topology via Spontaneous Symmetry Breaking [79.16635054977068]
パラメトリック駆動型量子共振器の連鎖は、弱い近傍-ケル間相互作用によってのみ結合される。
トポロジーはカーの非線形性の構造によって決定され、非自明なバルク境界対応をもたらす。
論文 参考訳(メタデータ) (2025-03-15T00:20:45Z) - Last-Iterate Convergence of Adaptive Riemannian Gradient Descent for Equilibrium Computation [52.73824786627612]
本稿では,テクスト幾何学的強単調ゲームに対する新たな収束結果を確立する。
我々のキーとなる結果は、RGDがテクスト幾何学的手法で最終定位線形収束を実現することを示しています。
全体として、ユークリッド設定を超えるゲームに対して、幾何学的に非依存な最終点収束解析を初めて提示する。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Dynamical chaos in nonlinear Schr\"odinger models with subquadratic
power nonlinearity [137.6408511310322]
ランダムポテンシャルと準4次パワー非線形性を持つ非線形シュリンガー格子のクラスを扱う。
拡散過程は亜拡散性であり, 微細構造が複雑であることを示す。
二次パワー非線形性の限界も議論され、非局在化境界をもたらすことが示されている。
論文 参考訳(メタデータ) (2023-01-20T16:45:36Z) - A singular Riemannian geometry approach to Deep Neural Networks I.
Theoretical foundations [77.86290991564829]
ディープニューラルネットワークは、音声認識、機械翻訳、画像解析など、いくつかの科学領域で複雑な問題を解決するために広く使われている。
我々は、リーマン計量を備えた列の最後の多様体で、多様体間の写像の特定の列を研究する。
このようなシーケンスのマップの理論的性質について検討し、最終的に実践的な関心を持つニューラルネットワークの実装間のマップのケースに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-17T11:43:30Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。