論文の概要: Learning Hamiltonian Systems with Mono-Implicit Runge-Kutta Methods
- arxiv url: http://arxiv.org/abs/2303.03769v1
- Date: Tue, 7 Mar 2023 10:04:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 15:50:13.273141
- Title: Learning Hamiltonian Systems with Mono-Implicit Runge-Kutta Methods
- Title(参考訳): mono-implicit runge-kutta法によるハミルトン系の学習
- Authors: H{\aa}kon Noren
- Abstract要約: 単単純ランジュ・クッタ法を高次に使用することにより、ハミルトンニューラルネットワークを小さなデータセット上で正確にトレーニングできることを示す。
これは、Fermi-Pasta-Ulam-Tsingouシステムに加えて、カオス二重振り子のハミルトニアンがデータから学習される数値実験によって実証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerical integrators could be used to form interpolation conditions when
training neural networks to approximate the vector field of an ordinary
differential equation (ODE) from data. When numerical one-step schemes such as
the Runge-Kutta methods are used to approximate the temporal discretization of
an ODE with a known vector field, properties such as symmetry and stability are
much studied. Here, we show that using mono-implicit Runge-Kutta methods of
high order allows for accurate training of Hamiltonian neural networks on small
datasets. This is demonstrated by numerical experiments where the Hamiltonian
of the chaotic double pendulum in addition to the Fermi-Pasta-Ulam-Tsingou
system is learned from data.
- Abstract(参考訳): 数値積分器は、通常の微分方程式(ODE)のベクトル場をデータから近似するためにニューラルネットワークを訓練する際に補間条件を形成するのに使うことができる。
Runge-Kutta法のような数値的な一段階スキームを用いて、ODEの時間的離散化を既知のベクトル場と近似すると、対称性や安定性などの特性が研究される。
そこで本研究では,単一単純ランゲ・クッタ法を高次に使用することにより,ハミルトンニューラルネットワークを小さなデータセット上で正確にトレーニングできることを示す。
これは、データからフェルミ・パスタ・ウラム・チンゴシステムに加えてカオス二重振り子のハミルトニアンが学習される数値実験によって証明される。
関連論文リスト
- Efficient Hamiltonian, structure and trace distance learning of Gaussian states [2.949446809950691]
同様の設定とサンプルの複雑さで、基礎となる相互作用グラフを学習できることが示される。
その結果、連続変数系に対する量子ハミルトン学習問題の状況は、より高度な状態にあることがわかった。
論文 参考訳(メタデータ) (2024-11-05T15:07:20Z) - Learning Dynamical Systems from Noisy Data with Inverse-Explicit
Integrators [0.0]
雑音データからベクトル場を近似するためにニューラルネットワークをトレーニングする際の精度を高めるために,平均逆積分器(MII)を導入する。
単単純ランゲ・クッタ法 (MIRK) のクラスは, MII に関連する場合に特に有利であることを示す。
論文 参考訳(メタデータ) (2023-06-06T09:50:38Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Identifiability and Asymptotics in Learning Homogeneous Linear ODE Systems from Discrete Observations [114.17826109037048]
通常の微分方程式(ODE)は、機械学習において最近多くの注目を集めている。
理論的な側面、例えば、統計的推定の識別可能性と特性は、いまだに不明である。
本稿では,1つの軌道からサンプリングされた等間隔の誤差のない観測結果から,同次線形ODE系の同定可能性について十分な条件を導出する。
論文 参考訳(メタデータ) (2022-10-12T06:46:38Z) - Multiple shooting with neural differential equations [0.0]
この研究は、データが振動を含む場合、神経微分方程式の標準的な適合は、データを記述するのに失敗する平坦な軌跡を与える可能性があることを実験的に証明している。
次に、2つのデータセットにニューラル微分方程式を適合させるための多重射撃法を紹介し、この手法の実証に成功した。
論文 参考訳(メタデータ) (2021-09-14T15:56:37Z) - Symplectic Gaussian Process Regression of Hamiltonian Flow Maps [0.8029049649310213]
ハミルトンフローマップに対する適切な効率なエミュレータを構築するためのアプローチを提案する。
将来的な応用は、加速器における高速荷電粒子の長期追跡と磁気プラズマ閉じ込めである。
論文 参考訳(メタデータ) (2020-09-11T17:56:35Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Learned Factor Graphs for Inference from Stationary Time Sequences [107.63351413549992]
定常時間列のためのモデルベースアルゴリズムとデータ駆動型MLツールを組み合わせたフレームワークを提案する。
ニューラルネットワークは、時系列の分布を記述する因子グラフの特定のコンポーネントを別々に学習するために開発された。
本稿では,学習された定常因子グラフに基づく推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-05T07:06:19Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。