論文の概要: Beyond Optimization: Intelligence as Metric-Topology Factorization under Geometric Incompleteness
- arxiv url: http://arxiv.org/abs/2602.07974v1
- Date: Sun, 08 Feb 2026 13:59:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.900596
- Title: Beyond Optimization: Intelligence as Metric-Topology Factorization under Geometric Incompleteness
- Title(参考訳): 最適化を超えて:幾何学的不完全性の下での計量トポロジー因子化としての知性
- Authors: Xin Li,
- Abstract要約: 我々は、知性は固定迷路を通したナビゲーションではなく、所望の振る舞いが安定した引力となるように表現幾何学を再構築する能力であると主張している。
任意の固定計量が幾何学的に不完全であることを示す:任意の局所計量表現に対して、幾らかの位相変換はそれを特異あるいは非コヒーレントにする。
本稿では,メモリアモルト化メトリック推論によるMTFを実装したTopological Urysohn Machine (TUM)を紹介する。
- 参考スコア(独自算出の注目度): 6.0044467881527614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Contemporary ML often equates intelligence with optimization: searching for solutions within a fixed representational geometry. This works in static regimes but breaks under distributional shift, task permutation, and continual learning, where even mild topological changes can invalidate learned solutions and trigger catastrophic forgetting. We propose Metric-Topology Factorization (MTF) as a unifying geometric principle: intelligence is not navigation through a fixed maze, but the ability to reshape representational geometry so desired behaviors become stable attractors. Learning corresponds to metric contraction (a controlled deformation of Riemannian structure), while task identity and environmental variation are encoded topologically and stored separately in memory. We show any fixed metric is geometrically incomplete: for any local metric representation, some topological transformations make it singular or incoherent, implying an unavoidable stability-plasticity tradeoff for weight-based systems. MTF resolves this by factorizing stable topology from plastic metric warps, enabling rapid adaptation via geometric switching rather than re-optimization. Building on this, we introduce the Topological Urysohn Machine (TUM), implementing MTF through memory-amortized metric inference (MAMI): spectral task signatures index amortized metric transformations, letting a single learned geometry be reused across permuted, reflected, or parity-altered environments. This explains robustness to task reordering, resistance to catastrophic forgetting, and generalization across transformations that defeat conventional continual learning methods (e.g., EWC).
- Abstract(参考訳): 現代MLはしばしばインテリジェンスと最適化を同一視し、固定された表現幾何学内の解を探す。
これは静的な状態でも機能するが、分布シフト、タスクの置換、連続的な学習の下では、緩やかなトポロジ的変化でさえ学習された解を無効にし、破滅的な忘れを起こさせる。
本稿では,メトリトポロジファクトリゼーション(MTF)を,固定迷路を通したナビゲーションではなく,所望の動作が安定したアトラクタとなるように表現幾何学を再構築する能力である,統一幾何学的原理として提案する。
学習は計量収縮(リーマン構造の制御された変形)に対応し、タスクのアイデンティティと環境変動はトポロジカルに符号化され、メモリに別々に格納される。
任意の固定計量が幾何学的に不完全であることを示す:任意の局所計量表現に対して、トポロジカル変換はそれを特異あるいは非コヒーレントにし、重み付け系に対する避けられない安定性と塑性のトレードオフを示唆する。
MTFは、プラスチックのメートル法ワープから安定な位相を分解することでこれを解決し、再最適化ではなく幾何スイッチングによる迅速な適応を可能にした。
そこで我々は,TUM(Topological Urysohn Machine)を導入し,メモリアモルト化メトリック推論(MAMI)によるMTFを実装した。
これは、タスクの並べ替えに対する堅牢性、破滅的な忘れ込みへの抵抗、従来の連続的な学習方法(EWCなど)を破る変換全体の一般化を説明する。
関連論文リスト
- Discrete Solution Operator Learning for Geometry-Dependent PDEs [5.010936781094744]
本稿では,連続関数空間演算子ではなく個別解法を学習するパラダイムであるDiSOLを紹介する。
DiSOLは、解法を古典的な離散化を反映する学習可能な段階に分解する。
これらの結果は、幾何学的に支配された問題における演算子表現の必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2026-01-14T04:34:49Z) - Learning Geometry: A Framework for Building Adaptive Manifold Models through Metric Optimization [8.201374511929538]
本稿では,従来のパラメータ最適化を超越した機械学習のパラダイムを提案する。
既定位相を持つ多様体上の計量テンソル場を最適化することにより、モデル空間の幾何学的構造を動的に形成する。
この研究は、その幾何学とトポロジーを自律的に進化させることができる完全にダイナミックな「メタ・ラーナー」を構築するための確固たる基礎を築いた。
論文 参考訳(メタデータ) (2025-10-30T01:53:32Z) - The Neural Differential Manifold: An Architecture with Explicit Geometric Structure [8.201374511929538]
本稿では,その基本設計に幾何学的構造を明示的に組み込んだニューラルネットワークアーキテクチャであるニューラル微分マニフォールド(NDM)を紹介する。
我々は、より効率的な最適化の可能性、継続学習の強化、科学的発見と制御可能な生成モデルへの応用など、このアプローチの理論的利点を分析する。
論文 参考訳(メタデータ) (2025-10-29T02:24:27Z) - Geometrically Constrained and Token-Based Probabilistic Spatial Transformers [5.437226012505534]
我々は、トランスフォーマーベースのビジョンパイプラインの標準化ツールとして、空間トランスフォーマーネットワーク(STN)を再考する。
本稿では、堅牢性を向上させる確率的、コンポーネントワイドな拡張を提案する。
本手法が他のSTNと比較して頑健さを常に向上することを示す。
論文 参考訳(メタデータ) (2025-09-14T11:30:53Z) - Generalized Linear Mode Connectivity for Transformers [87.32299363530996]
驚くべき現象はリニアモード接続(LMC)であり、独立に訓練されたモデルを低損失またはゼロ損失の経路で接続することができる。
以前の研究は主に置換によるニューロンの並べ替えに焦点を合わせてきたが、そのようなアプローチは範囲に限られている。
我々は、4つの対称性クラス(置換、半置換、変換、一般可逆写像)をキャプチャする統一的なフレームワークを導入する。
この一般化により、独立に訓練された視覚変換器とGPT-2モデルの間の低障壁とゼロバリア線形経路の発見が可能となった。
論文 参考訳(メタデータ) (2025-06-28T01:46:36Z) - CP$^2$: Leveraging Geometry for Conformal Prediction via Canonicalization [51.716834831684004]
幾何データシフトにおける共形予測(CP)の問題について検討する。
本稿では,幾何的ポーズなどの幾何学的情報を統合することを提案する。
論文 参考訳(メタデータ) (2025-06-19T10:12:02Z) - Fully Geometric Multi-Hop Reasoning on Knowledge Graphs with Transitive Relations [50.05281461410368]
マルチホップ推論のための幾何学的埋め込み手法GeometrEを紹介する。
論理演算を学習する必要はなく、完全に幾何学的解釈可能である。
実験の結果,GeometrEは標準ベンチマークデータセットの最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-05-18T11:17:50Z) - Bridging Geometric States via Geometric Diffusion Bridge [79.60212414973002]
本稿では,初期および対象の幾何状態を正確にブリッジする新しい生成モデリングフレームワークであるGeometric Diffusion Bridge (GDB)を紹介する。
GDBは、幾何学的状態の接続のためにDoobの$h$-transformの修正版から派生した同変拡散ブリッジを使用している。
我々はGDBが既存の最先端のアプローチを超越し、幾何学的状態を正確にブリッジするための新しい経路を開くことを示す。
論文 参考訳(メタデータ) (2024-10-31T17:59:53Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。