論文の概要: Scale-Consistent State-Space Dynamics via Fractal of Stationary Transformations
- arxiv url: http://arxiv.org/abs/2601.19551v1
- Date: Tue, 27 Jan 2026 12:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.315416
- Title: Scale-Consistent State-Space Dynamics via Fractal of Stationary Transformations
- Title(参考訳): 定常変換のフラクタルによるスケール一貫性状態空間ダイナミクス
- Authors: Geunhyeok Yu, Hyoseok Hwang,
- Abstract要約: 最近のディープラーニングモデルは、中間表現の妥当性に関する構造的な保証なしに、ますます深度に依存している。
我々は、状態空間モデルのスケール一貫性潜在力学の構造的要件を定式化することにより、この制限に対処する。
我々は予測されたスケール一貫性の挙動を実証的に検証し、適応効率がアライメントされた潜在幾何学から現れることを示す。
- 参考スコア(独自算出の注目度): 9.983526161001997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent deep learning models increasingly rely on depth without structural guarantees on the validity of intermediate representations, rendering early stopping and adaptive computation ill-posed. We address this limitation by formulating a structural requirement for state-space model's scale-consistent latent dynamics across iterative refinement, and derive Fractal of Stationary Transformations (FROST), which enforces a self-similar representation manifold through a fractal inductive bias. Under this geometry, intermediate states correspond to different resolutions of a shared representation, and we provide a geometric analysis establishing contraction and stable convergence across iterations. As a consequence of this scale-consistent structure, halting naturally admits a ranking-based formulation driven by intrinsic feature quality rather than extrinsic objectives. Controlled experiments on ImageNet-100 empirically verify the predicted scale-consistent behavior, showing that adaptive efficiency emerges from the aligned latent geometry.
- Abstract(参考訳): 最近のディープラーニングモデルは、中間表現の妥当性を構造的に保証せずに深度に依存するようになり、早期停止と適応型計算が不適切になっている。
本研究では, 定常変換のフラクタル(FROST)を導出し, フラクタル誘導バイアスにより自己相似表現多様体を強制する。
この幾何学の下では、中間状態は共有表現の異なる分解に対応し、反復間の収縮と安定収束を確立する幾何学的解析を提供する。
このスケール一貫性構造の結果、停止は自然に、外生的目的よりも内生的特徴品質によって駆動されるランクベースの定式化を許容する。
ImageNet-100の制御された実験は、予測されたスケール一貫性の挙動を実証的に検証し、アライメントされた潜在幾何学から適応効率が現れることを示した。
関連論文リスト
- ARGUS: Adaptive Rotation-Invariant Geometric Unsupervised System [0.0]
本稿では,データ多様体の固定空間分割上での局所統計追跡としてドリフト検出を再現するフレームワークであるArgusを紹介する。
正準正則フレーム上のボロノイテッセルレーションは変換に不変なドリフト計量をもたらす。
孤立摂動からコヒーレントな分布シフトを区別するドリフト伝播のグラフ理論的特徴付けを開発した。
論文 参考訳(メタデータ) (2026-01-03T22:39:20Z) - Manifold Percolation: from generative model to Reinforce learning [0.26905021039717986]
生成的モデリングは通常、学習マッピング規則としてフレーム化されるが、これらの規則にアクセスできない観察者の視点からすると、そのタスクは確率分布から幾何学的支援を引き離すことになる。
本研究は, サンプリングプロセスが, 高次元密度推定を支持面上の幾何カウント問題に効果的に投射するので, 連続体パーコレーションは, この支援解析に一意に適していることを示す。
論文 参考訳(メタデータ) (2025-11-25T17:12:42Z) - ARC-Flow : Articulated, Resolution-Agnostic, Correspondence-Free Matching and Interpolation of 3D Shapes Under Flow Fields [4.706075725469252]
本研究は、2つの3次元調音形状間の物理的可視性の教師なし予測のための統一的な枠組みを示す。
ニューラル正規微分方程式(ODE)が支配する滑らかな時間変化流れ場を用いた微分同相変換として補間をモデル化する
対応性は, パラメータ化の異なる高忠実度曲面に有効である, 効率的なバリアフォールド定式化を用いて回復する。
論文 参考訳(メタデータ) (2025-03-04T13:28:05Z) - Mapping the Edge of Chaos: Fractal-Like Boundaries in The Trainability of Decoder-Only Transformer Models [0.0]
ミニチュアニューラルネットワークによる最近の証拠は、これらの結果を分離する境界がフラクタル特性を示すことを示唆している。
本研究は、より一貫した収束尺度を用いて、中規模デコーダのみの変圧器アーキテクチャに拡張する。
その結果、訓練性フロンティアは単純なしきい値ではなく、複数のスケールで自己相似で一見ランダムな構造を形成することがわかった。
論文 参考訳(メタデータ) (2025-01-08T05:24:11Z) - Relative Representations: Topological and Geometric Perspectives [50.85040046976025]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。