論文の概要: Jacobian Regularization Stabilizes Long-Term Integration of Neural Differential Equations
- arxiv url: http://arxiv.org/abs/2602.04608v1
- Date: Wed, 04 Feb 2026 14:36:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.572577
- Title: Jacobian Regularization Stabilizes Long-Term Integration of Neural Differential Equations
- Title(参考訳): ヤコビ正規化はニューラル微分方程式の長期積分を安定化する
- Authors: Maya Janvier, Julien Salomon, Etienne Meunier,
- Abstract要約: トレーニング中にNDEモデルのジャコビアンを方向微分で正規化することは、長期統合を安定化させることを示す。
トレーニング中の長期ロールアウトに比べてはるかに低コストであるが、長期シミュレーションの安定性の向上に成功している。
- 参考スコア(独自算出の注目度): 6.792830893781496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hybrid models and Neural Differential Equations (NDE) are getting increasingly important for the modeling of physical systems, however they often encounter stability and accuracy issues during long-term integration. Training on unrolled trajectories is known to limit these divergences but quickly becomes too expensive due to the need for computing gradients over an iterative process. In this paper, we demonstrate that regularizing the Jacobian of the NDE model via its directional derivatives during training stabilizes long-term integration in the challenging context of short training rollouts. We design two regularizations, one for the case of known dynamics where we can directly derive the directional derivatives of the dynamic and one for the case of unknown dynamics where they are approximated using finite differences. Both methods, while having a far lower cost compared to long rollouts during training, are successful in improving the stability of long-term simulations for several ordinary and partial differential equations, opening up the door to training NDE methods for long-term integration of large scale systems.
- Abstract(参考訳): ハイブリッドモデルとニューラル微分方程式(NDE)は、物理システムのモデリングにおいてますます重要になっているが、長期的な統合において安定性と精度の問題があることが多い。
回転しない軌道の訓練は、これらの分岐を制限することが知られているが、反復的なプロセスよりも勾配を計算する必要があるため、すぐに高価になる。
本稿では,NDEモデルの方向微分によるジャコビアンの正則化が,短期トレーニングロールアウトの困難な状況において長期統合を安定化させることを示す。
我々は2つの正規化を設計する: 1つは既知の力学の場合、もう1つは力学の方向微分を直接導出できる。
どちらの手法も、訓練中の長期ロールアウトに比べてはるかに低コストであるが、いくつかの常微分方程式と偏微分方程式の長期シミュレーションの安定性の向上に成功し、大規模システムの長期統合のためのNDE法を訓練するための扉を開いた。
関連論文リスト
- Implicit Neural Differential Model for Spatiotemporal Dynamics [5.1854032131971195]
In-PiNDiffは、安定時間力学のための新しい暗黙の物理積分型ニューラル微分可能解法である。
深い平衡モデルにインスパイアされたIm-PiNDiffは、暗黙の固定点層を用いて状態を前進させ、堅牢な長期シミュレーションを可能にする。
Im-PiNDiffは優れた予測性能、数値安定性の向上、メモリとコストの大幅な削減を実現している。
論文 参考訳(メタデータ) (2025-04-03T04:07:18Z) - Neural Dynamical Operator: Continuous Spatial-Temporal Model with Gradient-Based and Derivative-Free Optimization Methods [0.0]
本稿では、空間と時間の両方で連続的なニューラルダイナミクス演算子と呼ばれるデータ駆動モデリングフレームワークを提案する。
神経力学演算子の鍵となる特徴は、空間的および時間的離散化の両方に関して分解能不変性である。
提案手法は,ハイブリッド最適化方式により,より長期統計量の予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-11-20T14:31:18Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。