論文の概要: Stabilized Neural Differential Equations for Learning Dynamics with
Explicit Constraints
- arxiv url: http://arxiv.org/abs/2306.09739v3
- Date: Thu, 15 Feb 2024 16:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 21:13:27.804088
- Title: Stabilized Neural Differential Equations for Learning Dynamics with
Explicit Constraints
- Title(参考訳): 明示的制約を考慮した学習ダイナミクスのための安定化ニューラル微分方程式
- Authors: Alistair White, Niki Kilbertus, Maximilian Gelbrecht, Niklas Boers
- Abstract要約: そこで我々は, ニューラルネットワーク微分方程式に対する任意の多様体制約を強制するために, 安定化されたニューラル微分方程式(SNDE)を提案する。
我々のアプローチは安定化項に基づいており、元の力学に加えると、制約多様体は確実に安定である。
その単純さのため、我々の手法はすべての共通神経微分方程式(NDE)モデルと互換性があり、広く適用できる。
- 参考スコア(独自算出の注目度): 4.656302602746229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many successful methods to learn dynamical systems from data have recently
been introduced. However, ensuring that the inferred dynamics preserve known
constraints, such as conservation laws or restrictions on the allowed system
states, remains challenging. We propose stabilized neural differential
equations (SNDEs), a method to enforce arbitrary manifold constraints for
neural differential equations. Our approach is based on a stabilization term
that, when added to the original dynamics, renders the constraint manifold
provably asymptotically stable. Due to its simplicity, our method is compatible
with all common neural differential equation (NDE) models and broadly
applicable. In extensive empirical evaluations, we demonstrate that SNDEs
outperform existing methods while broadening the types of constraints that can
be incorporated into NDE training.
- Abstract(参考訳): データから動的システムを学ぶための多くの手法が最近導入された。
しかしながら、推論力学が、保護法や許可されたシステム状態の制限といった既知の制約を確実に維持することはまだ困難である。
本稿では, 線形微分方程式に対する任意の多様体制約を強制する手法である安定化ニューラル微分方程式(SNDE)を提案する。
我々のアプローチは安定化項に基づいており、元の力学に加えると、制約多様体は漸近的に安定である。
その単純さから,本手法はすべての共通神経微分方程式(nde)モデルと適合し,広く適用可能である。
実験的な評価では、SNDEは既存の手法よりも優れており、NDEトレーニングに組み込むことができる制約の種類を広くしている。
関連論文リスト
- Quantum Algorithms for Nonlinear Dynamics: Revisiting Carleman Linearization with No Dissipative Conditions [0.7373617024876725]
非線形力学系をカルマン線形化法により線形常微分方程式(ODE)に埋め込む方法について検討する。
本分析は,従来の散逸状態を超えて誤差境界を探索することによって,これらの知見を拡張した。
我々は、この共振条件がカールマン線型化のトランケーションレベル$N$に対して線型収束をもたらすことを証明した。
論文 参考訳(メタデータ) (2024-05-21T12:09:34Z) - Neural State-Dependent Delay Differential Equations [0.0]
不連続性や遅延項は、物理学から医学まで、幅広い種類の問題の統治方程式で発生する。
我々は最近提案されたNeural State-Dependent DDE (SDDDE)を導入して、ニューラルDDEを再考する。
提案手法は競争力があり,様々な遅延力学系における他の連続クラスモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-26T09:35:56Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Decimation technique for open quantum systems: a case study with
driven-dissipative bosonic chains [62.997667081978825]
量子系の外部自由度への不可避結合は、散逸(非単体)ダイナミクスをもたらす。
本稿では,グリーン関数の(散逸的な)格子計算に基づいて,これらのシステムに対処する手法を提案する。
本手法のパワーを,複雑性を増大させる駆動散逸型ボゾン鎖のいくつかの例で説明する。
論文 参考訳(メタデータ) (2022-02-15T19:00:09Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Structure-Preserving Learning Using Gaussian Processes and Variational
Integrators [62.31425348954686]
本稿では,機械系の古典力学に対する変分積分器と,ガウス過程の回帰による残留力学の学習の組み合わせを提案する。
我々は、既知のキネマティック制約を持つシステムへのアプローチを拡張し、予測の不確実性に関する公式な境界を提供する。
論文 参考訳(メタデータ) (2021-12-10T11:09:29Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - ImitationFlow: Learning Deep Stable Stochastic Dynamic Systems by
Normalizing Flows [29.310742141970394]
我々は,世界規模で安定な非線形力学を学習できる新しいDeep生成モデルであるImitationFlowを紹介した。
提案手法の有効性を,標準データセットと実ロボット実験の両方で示す。
論文 参考訳(メタデータ) (2020-10-25T14:49:46Z) - Constrained Neural Ordinary Differential Equations with Stability
Guarantees [1.1086440815804224]
代数的非線形性を持つ離散常微分方程式をディープニューラルネットワークとしてモデル化する方法を示す。
我々は、重みの固有値に課される暗黙の制約に基づいて、ネットワーク層の安定性を保証する。
オープンループシミュレーションを用いて,学習したニューラルネットワークの予測精度を検証した。
論文 参考訳(メタデータ) (2020-04-22T22:07:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。