論文の概要: Locally-symplectic neural networks for learning volume-preserving
dynamics
- arxiv url: http://arxiv.org/abs/2109.09151v1
- Date: Sun, 19 Sep 2021 15:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 09:39:01.434157
- Title: Locally-symplectic neural networks for learning volume-preserving
dynamics
- Title(参考訳): 体積保存力学学習のための局所シンプレクティックニューラルネットワーク
- Authors: J\=anis Baj\=ars
- Abstract要約: 音量保存力学を学習するための局所シンプレクティックニューラルネットワーク LocSympNets を提案する。
LocSympNets の構成は、体積保存力学系のベクトル場の局所ハミルトン記述の定理に由来する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose locally-symplectic neural networks LocSympNets for learning
volume-preserving dynamics. The construction of LocSympNets stems from the
theorem of local Hamiltonian description of the vector field of a
volume-preserving dynamical system and the splitting methods based on
symplectic integrators. Modified gradient modules of recently proposed
symplecticity-preserving neural networks SympNets are used to construct
locally-symplectic modules, which composition results in volume-preserving
neural networks. LocSympNets are studied numerically considering linear and
nonlinear dynamics, i.e., semi-discretized advection equation and Euler
equations of the motion of a free rigid body, respectively. LocSympNets are
able to learn linear and nonlinear dynamics to high degree of accuracy. When
learning a single trajectory of the rigid body dynamics LocSympNets are able to
learn both invariants of the system with absolute relative errors below 1% in
long-time predictions and produce qualitatively good short-time predictions,
when the learning of the whole system from randomly sampled data is considered.
- Abstract(参考訳): 音量保存力学を学習するための局所シンプレクティックニューラルネットワーク LocSympNets を提案する。
LocSympNets の構成は、体積保存力学系のベクトル場の局所ハミルトン記述の定理とシンプレクティック積分器に基づく分割法に由来する。
最近提案されたシンプレクティシティ保存ニューラルネットワークの修正勾配モジュールは、局所的なシンプレクティクスモジュールを構築するために使用される。
自由剛体運動の半離散化随伴方程式やオイラー方程式など、線形および非線形力学を考慮に入れて数値的に研究する。
LocSympNetsは線形および非線形のダイナミクスを高い精度で学習することができる。
剛体力学の1つの軌道を学習する場合、ランダムにサンプリングされたデータからシステム全体の学習を考慮すれば、長期予測において絶対相対誤差が1%未満のシステムの両方の不変量を学び、質的に優れた短時間予測を生成することができる。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Applications of Machine Learning to Modelling and Analysing Dynamical
Systems [0.0]
本稿では,既存のハミルトンニューラルネットワーク構造を適応型シンプレクティックリカレントニューラルネットワークに組み合わせたアーキテクチャを提案する。
このアーキテクチャは、ハミルトニアン力学を予測する際に、これまで提案されていたニューラルネットワークよりも大幅に優れていた。
本手法は, 単一パラメータポテンシャルに対して有効であり, 長期間にわたって正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2023-07-22T19:04:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Constraining Chaos: Enforcing dynamical invariants in the training of
recurrent neural networks [0.0]
本稿では,カオス力学系に対する機械学習に基づく予測手法の新しいトレーニング手法を提案する。
この訓練は、リヤプノフ指数スペクトルやフラクタル次元のような動的不変量を適用し、限られたデータで操作する場合、より長くより安定した予測を可能にする。
論文 参考訳(メタデータ) (2023-04-24T00:33:47Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Learn Like The Pro: Norms from Theory to Size Neural Computation [3.848947060636351]
非線形性を持つ力学系が、それらをエミュレートしようとするニューラル系の設計にどのように影響するかを考察する。
本稿では,学習性尺度を提案し,その関連する特徴を学習力学の近平衡挙動に量子化する。
連続的あるいは離散的な時間ダイナミクスを模倣する乗法ノードを持つニューラルネットワークのクラスの正確なサイズを明らかにしている。
論文 参考訳(メタデータ) (2021-06-21T20:58:27Z) - Constrained Block Nonlinear Neural Dynamical Models [1.3163098563588727]
既知の優先度によって調整されたニューラルネットワークモジュールは、非線形ダイナミクスを持つシステムを表現するために効果的に訓練および結合することができる。
提案手法は,入力,状態,出力のダイナミクスを表現するニューラルネットワークブロックで構成され,ネットワーク重みとシステム変数に制約を課す。
3つの非線形システムのシステム識別タスクにおける提案アーキテクチャと学習手法の性能評価を行った。
論文 参考訳(メタデータ) (2021-01-06T04:27:54Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。