論文の概要: Learning Relativistic Geodesics and Chaotic Dynamics via Stabilized Lagrangian Neural Networks
- arxiv url: http://arxiv.org/abs/2601.12519v1
- Date: Sun, 18 Jan 2026 18:09:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.66201
- Title: Learning Relativistic Geodesics and Chaotic Dynamics via Stabilized Lagrangian Neural Networks
- Title(参考訳): 安定化ラグランジアンニューラルネットワークによる相対論的測地学とカオスダイナミクスの学習
- Authors: Abdullah Umut Hamzaogullari, Arkadas Ozakin,
- Abstract要約: 我々は、ラグランジアンの第2微分の非物理的シグネチャを速度に関してペナライズするヘッセン正則化スキームを提案する。
我々のLNNは、非相対論的および一般相対論的設定の両方において、測地運動を表すラグランジアンを学習できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lagrangian Neural Networks (LNNs) can learn arbitrary Lagrangians from trajectory data, but their unusual optimization objective leads to significant training instabilities that limit their application to complex systems. We propose several improvements that address these fundamental challenges, namely, a Hessian regularization scheme that penalizes unphysical signatures in the Lagrangian's second derivatives with respect to velocities, preventing the network from learning unstable dynamics, activation functions that are better suited to the problem of learning Lagrangians, and a physics-aware coordinate scaling that improves stability. We systematically evaluate these techniques alongside previously proposed methods for improving stability. Our improved architecture successfully trains on systems of unprecedented complexity, including triple pendulums, and achieved 96.6\% lower validation loss value and 90.68\% better stability than baseline LNNs in double pendulum systems. With the improved framework, we show that our LNNs can learn Lagrangians representing geodesic motion in both non-relativistic and general relativistic settings. To deal with the relativistic setting, we extended our regularization to penalize violations of Lorentzian signatures, which allowed us to predict a geodesic Lagrangian under AdS\textsubscript{4} spacetime metric directly from trajectory data, which to our knowledge has not been done in the literature before. This opens new possibilities for automated discovery of geometric structures in physics, including extraction of spacetime metric tensor components from geodesic trajectories. While our approach inherits some limitations of the original LNN framework, particularly the requirement for invertible Hessians, it significantly expands the practical applicability of LNNs for scientific discovery tasks.
- Abstract(参考訳): ラグランジアンニューラルネットワーク(LNN)は、軌跡データから任意のラグランジアンを学習することができるが、その特異な最適化目的は、複雑なシステムへの適用を制限する重要なトレーニング不安定性をもたらす。
これらの基本的な課題に対処するいくつかの改善点として、ラグランジアンの第2微分の非物理的シグネチャを速度に関してペナライズするヘシアン正規化スキーム、不安定なダイナミクスの学習を防止するネットワーク、ラグランジアン学習に適するアクティベーション関数、安定性を向上させる物理対応座標スケーリングを提案する。
従来提案されていた安定性向上手法とともに,これらの手法を体系的に評価した。
改良されたアーキテクチャは、三重振り子を含む前例のない複雑系のトレーニングに成功し、96.6\%の検証損失値と90.68\%の安定性を達成した。
改良されたフレームワークにより、LNNは非相対論的および一般相対論的設定の両方において測地運動を表すラグランジアンを学習できることを示す。
相対論的設定に対処するため、我々は正規化を拡張してローレンツ符号の違反をペナルライズし、AdS\textsubscript{4} 時空測度に基づいて測地ラグランジアンを予測することができた。
これは、測地軌道から時空計量テンソル成分を抽出するなど、物理学における幾何学構造の自動発見の新たな可能性を開く。
提案手法は,従来のLNNフレームワークのいくつかの制限,特に非可逆ヘッセンの要件を継承するが,科学的発見タスクにおけるLNNの実用性を大幅に拡張する。
関連論文リスト
- PTL-PINNs: Perturbation-Guided Transfer Learning with Physics- Informed Neural Networks for Nonlinear Systems [7.961515776672606]
PINNのための摂動誘導型転送学習フレームワーク(PTL-PINN)を提案する。
PTL-PINNは閉形式式を用いて近似線形摂動系を解き、行列ベクトル乗算の時間的複雑さを高速に一般化する。
我々は,PTL-PINNが,最大1桁の計算速度で,様々なRunge-Kutta法に匹敵する精度を実現することを示す。
論文 参考訳(メタデータ) (2026-01-17T16:09:33Z) - LNN-PINN: A Unified Physics-Only Training Framework with Liquid Residual Blocks [1.6249267147413524]
LNN-PINNは、液体残留ゲーティングアーキテクチャを組み込んだ物理インフォームドニューラルネットワークフレームワークである。
4つのベンチマーク問題の中で、LNN-PINNはRMSEとMAEを同一の訓練条件下で一貫して削減した。
論文 参考訳(メタデータ) (2025-08-12T13:35:46Z) - Generative System Dynamics in Recurrent Neural Networks [56.958984970518564]
リカレントニューラルネットワーク(RNN)の連続時間ダイナミクスについて検討する。
線形および非線形構成の両方において安定な極限サイクルを実現するためには,スキュー対称性の重み行列が基本であることを示す。
数値シミュレーションは、非線形活性化関数が極限周期を維持するだけでなく、システム統合プロセスの数値安定性を高めることを示す。
論文 参考訳(メタデータ) (2025-04-16T10:39:43Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Physics-Informed Deep Learning of Rate-and-State Fault Friction [0.0]
我々は, 前方問題と非線形欠陥摩擦パラメータの直接逆変換のためのマルチネットワークPINNを開発した。
本稿では1次元および2次元のストライク・スリップ断層に対する速度・状態摩擦を考慮した計算PINNフレームワークを提案する。
その結果, 断層におけるパラメータ逆転のネットワークは, 結合した物質変位のネットワークよりもはるかに優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-14T23:53:25Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - Simplifying Hamiltonian and Lagrangian Neural Networks via Explicit
Constraints [49.66841118264278]
私たちは、現在のアプローチの限界を押し上げるために、一連の挑戦的なカオスと拡張ボディシステムを導入します。
実験の結果,明示的な制約を持つモンテカルロ座標は,精度とデータ効率を100倍に向上させることがわかった。
論文 参考訳(メタデータ) (2020-10-26T13:35:16Z) - On Lyapunov Exponents for RNNs: Understanding Information Propagation
Using Dynamical Systems Tools [6.199300239433395]
Lyapunov Exponents (LEs) は非線形系軌道の膨張と収縮の速度を測定する。
情報の前方伝播は誤り勾配の後方伝播と関係しているため、レはRNN訓練力学の安定性に左右される。
学習力学の安定性を理解し、活用するためのツールとして、リャプノフスペクトルは、規範的な数学的アプローチの間の既存のギャップを埋める。
論文 参考訳(メタデータ) (2020-06-25T00:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。