論文の概要: SympNets: Intrinsic structure-preserving symplectic networks for
identifying Hamiltonian systems
- arxiv url: http://arxiv.org/abs/2001.03750v3
- Date: Wed, 19 Aug 2020 06:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 09:25:02.792932
- Title: SympNets: Intrinsic structure-preserving symplectic networks for
identifying Hamiltonian systems
- Title(参考訳): sympnets: ハミルトン系同定のための構造保存型シンプレクティックネットワーク
- Authors: Pengzhan Jin, Zhen Zhang, Aiqing Zhu, Yifa Tang and George Em
Karniadakis
- Abstract要約: 線形, アクティベーション, 勾配モジュールからなるデータからハミルトン系を特定するための新しいシンプレクティックネットワーク(SympNets)を提案する。
具体的には、線形および活性化モジュールからなるLA-SympNetsと勾配モジュールからなるG-SympNetsの2つのクラスを定義する。
- 参考スコア(独自算出の注目度): 2.6016814327894466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose new symplectic networks (SympNets) for identifying Hamiltonian
systems from data based on a composition of linear, activation and gradient
modules. In particular, we define two classes of SympNets: the LA-SympNets
composed of linear and activation modules, and the G-SympNets composed of
gradient modules. Correspondingly, we prove two new universal approximation
theorems that demonstrate that SympNets can approximate arbitrary symplectic
maps based on appropriate activation functions. We then perform several
experiments including the pendulum, double pendulum and three-body problems to
investigate the expressivity and the generalization ability of SympNets. The
simulation results show that even very small size SympNets can generalize well,
and are able to handle both separable and non-separable Hamiltonian systems
with data points resulting from short or long time steps. In all the test
cases, SympNets outperform the baseline models, and are much faster in training
and prediction. We also develop an extended version of SympNets to learn the
dynamics from irregularly sampled data. This extended version of SympNets can
be thought of as a universal model representing the solution to an arbitrary
Hamiltonian system.
- Abstract(参考訳): 本稿では,線形,活性化,勾配モジュールの構成に基づくデータからハミルトン系を同定する新しいシンプレクティックネットワーク(シンプレクティックネットワーク)を提案する。
具体的には、線形および活性化モジュールからなるLA-SympNetsと勾配モジュールからなるG-SympNetsの2つのクラスを定義する。
これに対応して、SympNetsが適切なアクティベーション関数に基づいて任意のシンプレクティックマップを近似できることを示す2つの新しい普遍近似定理を証明した。
次に, 振子, 二重振子, 3体問題などの実験を行い, シンプネットの表現性と一般化能力について検討した。
シミュレーション結果から,非常に小型のシンプネットでもよく一般化でき,分離性および分離性のないハミルトニアン系の両方を,短時間または長時間のステップから得られるデータポイントで処理できることがわかった。
すべてのテストケースにおいて、sympnetsはベースラインモデルよりも優れており、トレーニングと予測においてはるかに高速である。
また、不規則なサンプルデータからダイナミックスを学ぶためのSympNetsの拡張版も開発した。
この拡張されたシンプネットは、任意のハミルトニアン系の解を表す普遍モデルと考えることができる。
関連論文リスト
- MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations [1.1093197168536761]
この研究は、任意の構造の大規模データ(グラフデータ)を扱うために設計された新しい幾何学的深層学習フレームワークMagNETを紹介する。
MAg層は、グラフプーリング/アンプール操作によってインターリーブされ、堅牢で任意の複雑なメッシュを処理することができるグラフU-Netアーキテクチャを形成する。
いくつかの非線形有限要素シミュレーションのためのMAgNETの予測能力を実証し、将来の研究を促進するためのオープンソースデータセットとコードを提供する。
論文 参考訳(メタデータ) (2022-11-01T19:23:45Z) - Discretization Invariant Networks for Learning Maps between Neural
Fields [3.09125960098955]
離散化不変ニューラルネットワーク(DI-Net)の理解と設計のための新しいフレームワークを提案する。
我々の分析は、異なる有限離散化の下でのモデル出力の偏差の上限を確立する。
構成により、DI-Netsは可積分函数空間間の大きな写像のクラスを普遍的に近似することが証明される。
論文 参考訳(メタデータ) (2022-06-02T17:44:03Z) - SymNMF-Net for The Symmetric NMF Problem [62.44067422984995]
我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
論文 参考訳(メタデータ) (2022-05-26T08:17:39Z) - RU-Net: Regularized Unrolling Network for Scene Graph Generation [92.95032610978511]
シーングラフ生成(SGG)は、オブジェクトを検出し、各オブジェクト間の関係を予測することを目的としている。
既存のSGG法は,(1)あいまいな対象表現,2)関係予測の多様性の低下など,いくつかの問題に悩まされることが多い。
両問題に対処する正規化アンローリングネットワーク(RU-Net)を提案する。
論文 参考訳(メタデータ) (2022-05-03T04:21:15Z) - Locally-symplectic neural networks for learning volume-preserving
dynamics [0.0]
音量保存力学を学習するための局所シンプレクティックニューラルネットワーク LocSympNets を提案する。
LocSympNets の構成は、体積保存力学系のベクトル場の局所ハミルトン記述の定理に由来する。
論文 参考訳(メタデータ) (2021-09-19T15:58:09Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - A Multi-Semantic Metapath Model for Large Scale Heterogeneous Network
Representation Learning [52.83948119677194]
大規模不均一表現学習のためのマルチセマンティックメタパス(MSM)モデルを提案する。
具体的には,マルチセマンティックなメタパスに基づくランダムウォークを生成し,不均衡な分布を扱うヘテロジニアスな近傍を構築する。
提案するフレームワークに対して,AmazonとAlibabaの2つの挑戦的なデータセットに対して,体系的な評価を行う。
論文 参考訳(メタデータ) (2020-07-19T22:50:20Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Sparse Symplectically Integrated Neural Networks [15.191984347149667]
SSINN(Sprselectically Integrated Neural Networks)を紹介する。
SSINNはデータからハミルトン力学系を学ぶための新しいモデルである。
古典的ハミルトン力学問題に対するSSINNの評価を行う。
論文 参考訳(メタデータ) (2020-06-10T03:33:37Z) - Consistency of Spectral Clustering on Hierarchical Stochastic Block
Models [5.983753938303726]
実世界のネットワークにおけるコミュニティの階層構造について,汎用ブロックモデルを用いて検討する。
本手法の強い一貫性を,幅広いモデルパラメータで証明する。
既存のほとんどの研究とは異なり、我々の理論は接続確率が桁違いに異なるかもしれないマルチスケールネットワークをカバーしている。
論文 参考訳(メタデータ) (2020-04-30T01:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。