論文の概要: Data-driven Prediction of General Hamiltonian Dynamics via Learning
Exactly-Symplectic Maps
- arxiv url: http://arxiv.org/abs/2103.05632v1
- Date: Tue, 9 Mar 2021 18:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:40:49.240685
- Title: Data-driven Prediction of General Hamiltonian Dynamics via Learning
Exactly-Symplectic Maps
- Title(参考訳): 完全シンプレクティックマップによる一般ハミルトン力学のデータ駆動予測
- Authors: Renyi Chen and Molei Tao
- Abstract要約: 我々は、潜時シンプレクティックマップによって生成される非線形時系列の学習と予測について考察する。
我々の方法はベクトル場に頼らず、その存在を前提としないため、異なる。
妥当な仮定の下では、大域的予測誤差は、長い予測時間とともに、ほぼ直線的に増加することが証明される。
- 参考スコア(独自算出の注目度): 6.85316573653194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the learning and prediction of nonlinear time series generated by
a latent symplectic map. A special case is (not necessarily separable)
Hamiltonian systems, whose solution flows give such symplectic maps. For this
special case, both generic approaches based on learning the vector field of the
latent ODE and specialized approaches based on learning the Hamiltonian that
generates the vector field exist. Our method, however, is different as it does
not rely on the vector field nor assume its existence; instead, it directly
learns the symplectic evolution map in discrete time. Moreover, we do so by
representing the symplectic map via a generating function, which we approximate
by a neural network (hence the name GFNN). This way, our approximation of the
evolution map is always \emph{exactly} symplectic. This additional geometric
structure allows the local prediction error at each step to accumulate in a
controlled fashion, and we will prove, under reasonable assumptions, that the
global prediction error grows at most \emph{linearly} with long prediction
time, which significantly improves an otherwise exponential growth. In
addition, as a map-based and thus purely data-driven method, GFNN avoids two
additional sources of inaccuracies common in vector-field based approaches,
namely the error in approximating the vector field by finite difference of the
data, and the error in numerical integration of the vector field for making
predictions. Numerical experiments further demonstrate our claims.
- Abstract(参考訳): 我々は、潜時シンプレクティックマップによって生成される非線形時系列の学習と予測について考察する。
特別なケースは(必ずしも分離できない)ハミルトン系であり、その解流はそのようなシンプレクティック写像を与える。
この特別な場合、潜在ODEのベクトル場を学習する一般的なアプローチと、ベクトル場を生成するハミルトニアンを学習する専門的なアプローチの両方が存在する。
しかし、この方法はベクトル場に依存しず、その存在を仮定しないため、異なるものであり、代わりに離散時間においてシンプレクティック進化写像を直接学習する。
さらに、生成関数を介してシンプレクティックマップを表現することで、ニューラルネットワーク(GFNN)で近似します。
この方法では、進化写像の近似は常に \emph{exactly} シンプレクティックである。
この追加的な幾何学的構造により、各ステップにおける局所的予測誤差が制御された方法で蓄積され、合理的な仮定の下では、大域的予測誤差は長い予測時間で最大で 'emph{linearly} で成長し、それ以外は指数的成長が著しく向上することを示す。
さらに、写像に基づく純粋データ駆動手法として、GFNNはベクトル場ベースのアプローチで一般的な2つの不正確なソース、すなわちデータの有限差によるベクトル場近似の誤差と予測を行うためのベクトル場の数値積分における誤差を回避する。
数値実験は我々の主張をさらに実証する。
関連論文リスト
- On the Stability of a non-hyperbolic nonlinear map with non-bounded set of non-isolated fixed points with applications to Machine Learning [31.263649000946014]
本稿では,SUCPA(Semi Unsupervised through Prior Adaptation)アルゴリズムの収束解析について述べる。
収束解析は、アルゴリズムから導出される非線形写像の局所的および大域的安定性を研究することにより、力学系問題として対処される。
論文 参考訳(メタデータ) (2024-01-05T20:04:40Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Dynamical chaos in nonlinear Schr\"odinger models with subquadratic
power nonlinearity [137.6408511310322]
ランダムポテンシャルと準4次パワー非線形性を持つ非線形シュリンガー格子のクラスを扱う。
拡散過程は亜拡散性であり, 微細構造が複雑であることを示す。
二次パワー非線形性の限界も議論され、非局在化境界をもたらすことが示されている。
論文 参考訳(メタデータ) (2023-01-20T16:45:36Z) - Nonparametric Factor Trajectory Learning for Dynamic Tensor
Decomposition [20.55025648415664]
動的テンソル分解(NONFAT)のためのNON FActor Trajectory Learningを提案する。
我々は第2レベルのGPを用いてエントリ値をサンプリングし、エンティティ間の時間的関係をキャプチャする。
実世界のいくつかの応用において,本手法の利点を示した。
論文 参考訳(メタデータ) (2022-07-06T05:33:00Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z) - Model, sample, and epoch-wise descents: exact solution of gradient flow
in the random feature model [16.067228939231047]
勾配流下での一般化および訓練誤差の全時間的挙動を解析する。
システムサイズが大きければ、両方のエラーの完全な時間進化経路を解析的に計算できることが示される。
我々の手法は、線形鉛筆に基づく最近のランダム行列法とともに、誤差のコーシー複素積分表現に基づいている。
論文 参考訳(メタデータ) (2021-10-22T14:25:54Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Asymptotics of Ridge Regression in Convolutional Models [26.910291664252973]
特定の高次元状態にある尾根推定器の推定誤差の正確な式を導出する。
畳み込みモデルに対する実験では, 二重降下現象を示し, 理論結果が実験と一致することを示した。
論文 参考訳(メタデータ) (2021-03-08T05:56:43Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。