論文の概要: Relative Geometry of Neural Forecasters: Linking Accuracy and Alignment in Learned Latent Geometry
- arxiv url: http://arxiv.org/abs/2602.15676v1
- Date: Tue, 17 Feb 2026 16:00:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.117015
- Title: Relative Geometry of Neural Forecasters: Linking Accuracy and Alignment in Learned Latent Geometry
- Title(参考訳): ニューラルフォアキャスターの相対幾何学:学習された潜在幾何学におけるリンク精度とアライメント
- Authors: Deniz Kucukahmetler, Maximilian Jean Hemmann, Julian Mosig von Aehrenfeld, Maximilian Amthor, Christian Deubel, Nico Scherf, Diaaeldin Taha,
- Abstract要約: 我々は、表現アライメントのレンズを通してニューラル予測器を研究し、ラテント空間における回転とスケーリングを除去するアンカーベースの幾何学的相対的な埋め込みを導入する。
このフレームワークを7つの標準的な力学系 – 周期的曖昧性からカオスまで – に適用すると、再現可能なファミリーレベルの構造が明らかになる。
相対幾何学は、モデル族と動的構造をどのように表現するかを比較するための、単純で再現可能な基礎を提供する。
- 参考スコア(独自算出の注目度): 0.5863360388454261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks can accurately forecast complex dynamical systems, yet how they internally represent underlying latent geometry remains poorly understood. We study neural forecasters through the lens of representational alignment, introducing anchor-based, geometry-agnostic relative embeddings that remove rotational and scaling ambiguities in latent spaces. Applying this framework across seven canonical dynamical systems - ranging from periodic to chaotic - we reveal reproducible family-level structure: multilayer perceptrons align with other MLPs, recurrent networks with RNNs, while transformers and echo-state networks achieve strong forecasts despite weaker alignment. Alignment generally correlates with forecasting accuracy, yet high accuracy can coexist with low alignment. Relative geometry thus provides a simple, reproducible foundation for comparing how model families internalize and represent dynamical structure.
- Abstract(参考訳): ニューラルネットワークは複雑な力学系を正確に予測できるが、それらが内部的に潜在幾何学をどう表現するかは理解されていない。
本研究では, 空間の回転やスケーリングのあいまいさを除去するアンカーベース, 幾何に依存しない相対埋め込みを導入し, 表現アライメントのレンズを通してニューラル予測器について検討する。
このフレームワークを周期的からカオス的な7つの標準的な力学系に適用すると、再現可能なファミリーレベルの構造が明らかになる。
アライメントは一般的に予測精度と相関するが、高い精度は低いアライメントと共存することができる。
したがって、相対幾何学はモデル族がいかに内部化し、動的構造を表現するかを比較するための単純で再現可能な基礎を提供する。
関連論文リスト
- Tensor Network Framework for Forecasting Nonlinear and Chaotic Dynamics [1.790605517028706]
非線形およびカオス力学を予測するためのテンソルネットワークモデル(TNM)を提案する。
我々は,TNMが短時間の軌道を正確に再構成し,アトラクタ形状を忠実に捉えていることを示す。
論文 参考訳(メタデータ) (2025-11-12T11:49:38Z) - The Neural Differential Manifold: An Architecture with Explicit Geometric Structure [8.201374511929538]
本稿では,その基本設計に幾何学的構造を明示的に組み込んだニューラルネットワークアーキテクチャであるニューラル微分マニフォールド(NDM)を紹介する。
我々は、より効率的な最適化の可能性、継続学習の強化、科学的発見と制御可能な生成モデルへの応用など、このアプローチの理論的利点を分析する。
論文 参考訳(メタデータ) (2025-10-29T02:24:27Z) - VIKING: Deep variational inference with stochastic projections [48.946143517489496]
変分平均場近似は、現代の過度にパラメータ化されたディープニューラルネットワークと競合する傾向がある。
パラメータ空間の2つの独立線型部分空間を考える単純な変分族を提案する。
これにより、オーバーパラメトリゼーションを反映した、完全に相関した近似後部を構築することができる。
論文 参考訳(メタデータ) (2025-10-27T15:38:35Z) - Dynamical Learning in Deep Asymmetric Recurrent Neural Networks [1.3421746809394772]
非対称なディープリカレントニューラルネットワークは、指数関数的に大きく、密度の高い内部表現の多様体を生み出すことを示す。
本稿では,再帰的ダイナミクスからインプット・アウトプット・アソシエーションが自然に出現する分散学習手法を提案する。
論文 参考訳(メタデータ) (2025-09-05T12:05:09Z) - Adaptive Riemannian Graph Neural Networks [29.859977834688625]
グラフ上の連続および異方性計量テンソル場を学習する新しいフレームワークを導入する。
これにより各ノードがその最適な局所幾何学を決定でき、モデルがグラフの構造的景観に流動的に適応できる。
本手法は, ヘテロ親和性ベンチマークとホモ親和性ベンチマークの双方において, 優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-04T16:55:02Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks [50.2033914945157]
本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
論文 参考訳(メタデータ) (2023-06-09T15:38:25Z) - Optimizing Mode Connectivity via Neuron Alignment [84.26606622400423]
経験的に、損失関数の局所ミニマは、損失がほぼ一定であるようなモデル空間の学習曲線で接続することができる。
本稿では,ネットワークの重み変化を考慮し,対称性がランドスケープ・コネクティビティに与える影響を明らかにするための,より一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-05T02:25:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。