論文の概要: Symplectic Neural Networks in Taylor Series Form for Hamiltonian Systems
- arxiv url: http://arxiv.org/abs/2005.04986v4
- Date: Sun, 20 Feb 2022 01:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 20:58:17.042749
- Title: Symplectic Neural Networks in Taylor Series Form for Hamiltonian Systems
- Title(参考訳): ハミルトン系に対するテイラー級数形式のシンプレクティックニューラルネットワーク
- Authors: Yunjin Tong, Shiying Xiong, Xingzhe He, Guanghan Pan, Bo Zhu
- Abstract要約: 我々は,Symphlectic Taylor Neural Networks (Taylor-nets) という,効率的かつ軽量な学習アルゴリズムを提案する。
スパース・短期観測に基づく複素ハミルトン力学系の連続的長期予測を行う。
我々は、振り子、ロトカ-ボルテラ、ケプラー、ヘノン-ハイレス系を含むハミルトン力学系の幅広いスペクトルを予測する上で、テイラー-ネットの有効性を実証する。
- 参考スコア(独自算出の注目度): 15.523425139375226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an effective and lightweight learning algorithm, Symplectic Taylor
Neural Networks (Taylor-nets), to conduct continuous, long-term predictions of
a complex Hamiltonian dynamic system based on sparse, short-term observations.
At the heart of our algorithm is a novel neural network architecture consisting
of two sub-networks. Both are embedded with terms in the form of Taylor series
expansion designed with symmetric structure. The key mechanism underpinning our
infrastructure is the strong expressiveness and special symmetric property of
the Taylor series expansion, which naturally accommodate the numerical fitting
process of the gradients of the Hamiltonian with respect to the generalized
coordinates as well as preserve its symplectic structure. We further
incorporate a fourth-order symplectic integrator in conjunction with neural
ODEs' framework into our Taylor-net architecture to learn the continuous-time
evolution of the target systems while simultaneously preserving their
symplectic structures. We demonstrated the efficacy of our Taylor-net in
predicting a broad spectrum of Hamiltonian dynamic systems, including the
pendulum, the Lotka--Volterra, the Kepler, and the H\'enon--Heiles systems. Our
model exhibits unique computational merits by outperforming previous methods to
a great extent regarding the prediction accuracy, the convergence rate, and the
robustness despite using extremely small training data with a short training
period (6000 times shorter than the predicting period), small sample sizes, and
no intermediate data to train the networks.
- Abstract(参考訳): 本稿では,複雑なハミルトニアン力学系の連続的・長期予測を行うための,効果的で軽量な学習アルゴリズムであるsymplectic taylor neural networks (taylor-nets)を提案する。
私たちのアルゴリズムの中心は、2つのサブネットワークからなる新しいニューラルネットワークアーキテクチャです。
どちらも対称構造で設計されたテイラー級数展開の項に埋め込まれている。
インフラの基盤となる重要なメカニズムはテイラー級数展開の強い表現性と特別な対称性であり、一般化された座標に対するハミルトン勾配の数値的な嵌合過程を自然に許容し、シンプレクティック構造を保存することである。
さらに,4次シンプレクティックインテグレータをneural odesのフレームワークと組み合わせてtaylor-netアーキテクチャに組み込み,シンプレクティック構造を保存しながら,ターゲットシステムの連続時間発展を学習します。
我々は、振り子、ロトカ-ボルテラ、ケプラー、H'enon-Heiles系を含むハミルトン力学系の幅広いスペクトルを予測する上で、テイラーネットの有効性を実証した。
予測精度,収束率,ロバスト性について,短時間のトレーニング期間(予測期間の6000倍),サンプルサイズ,ネットワークを訓練するための中間データがないにもかかわらず,従来の手法をかなり上回ることで,独自の計算能力を示す。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Systematic construction of continuous-time neural networks for linear dynamical systems [0.0]
本稿では,動的システムのサブクラスをモデル化するためのニューラルネットワーク構築の体系的アプローチについて論じる。
我々は、各ニューロンの出力が1次または2次常微分方程式(ODE)の解として連続的に進化する連続時間ニューラルネットワークの変種を用いる。
データからネットワークアーキテクチャとパラメータを導出する代わりに、所定のLTIシステムから直接スパースアーキテクチャとネットワークパラメータを計算するための勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-24T16:16:41Z) - Applications of Machine Learning to Modelling and Analysing Dynamical
Systems [0.0]
本稿では,既存のハミルトンニューラルネットワーク構造を適応型シンプレクティックリカレントニューラルネットワークに組み合わせたアーキテクチャを提案する。
このアーキテクチャは、ハミルトニアン力学を予測する際に、これまで提案されていたニューラルネットワークよりも大幅に優れていた。
本手法は, 単一パラメータポテンシャルに対して有効であり, 長期間にわたって正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2023-07-22T19:04:17Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Nonseparable Symplectic Neural Networks [23.77058934710737]
我々は、新しいニューラルネットワークアーキテクチャ、非分離型シンプレクティックニューラルネットワーク(NSSNN)を提案する。
NSSNNは、限られた観測データから非分離ハミルトン系のシンプレクティック構造を発見し、埋め込む。
大規模ハミルトニアン系に対する長期的、正確で、堅牢な予測を得るためのアプローチの独特な計算上の利点を示す。
論文 参考訳(メタデータ) (2020-10-23T19:50:13Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Sparse Symplectically Integrated Neural Networks [15.191984347149667]
SSINN(Sprselectically Integrated Neural Networks)を紹介する。
SSINNはデータからハミルトン力学系を学ぶための新しいモデルである。
古典的ハミルトン力学問題に対するSSINNの評価を行う。
論文 参考訳(メタデータ) (2020-06-10T03:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。