論文の概要: Large-step neural network for learning the symplectic evolution from
partitioned data
- arxiv url: http://arxiv.org/abs/2208.14148v2
- Date: Fri, 23 Jun 2023 13:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 17:43:28.186509
- Title: Large-step neural network for learning the symplectic evolution from
partitioned data
- Title(参考訳): 分割データからシンプレクティック進化を学ぶための大ステップニューラルネットワーク
- Authors: Xin Li, Jian Li, Zhihong Jeff Xia and Nikolaos Georgakarakos
- Abstract要約: シンプレクティックマッピングによって生成される座標 (q) と運動量 (p) 変数を予測するハミルトン系の学習に焦点をあてる。
時系列を複数の分割に分割して新しい学習手法を開発する。
次に、大ステップニューラルネットワーク(LSNN)をトレーニングし、第1パーティションと残りのパーティションのそれぞれ間の生成関数を近似する。
- 参考スコア(独自算出の注目度): 9.200021031074328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we focus on learning Hamiltonian systems, which involves
predicting the coordinate (q) and momentum (p) variables generated by a
symplectic mapping. Based on Chen & Tao (2021), the symplectic mapping is
represented by a generating function. To extend the prediction time period, we
develop a new learning scheme by splitting the time series (q_i, p_i) into
several partitions. We then train a large-step neural network (LSNN) to
approximate the generating function between the first partition (i.e. the
initial condition) and each one of the remaining partitions. This partition
approach makes our LSNN effectively suppress the accumulative error when
predicting the system evolution. Then we train the LSNN to learn the motions of
the 2:3 resonant Kuiper belt objects for a long time period of 25000 yr. The
results show that there are two significant improvements over the neural
network constructed in our previous work (Li et al. 2022): (1) the conservation
of the Jacobi integral, and (2) the highly accurate predictions of the orbital
evolution. Overall, we propose that the designed LSNN has the potential to
considerably improve predictions of the long-term evolution of more general
Hamiltonian systems.
- Abstract(参考訳): 本研究では,座標の予測を伴うハミルトン系の学習に焦点を当てる。
(q)と運動量
(p) シンプレクティックマッピングによって生成される変数。
chen & tao (2021) に基づいて、シンプレクティック写像は生成関数によって表現される。
予測期間を延長するため,時系列(q_i,p_i)を複数の分割に分割して新しい学習手法を開発した。
次に、第1のパーティション(すなわち初期条件)と残りのパーティションのそれぞれとの間の生成関数を近似するために、大ステップニューラルネットワーク(lsnn)を訓練する。
この分割手法により、LSNNはシステムの進化を予測する際の累積誤差を効果的に抑制できる。
次にLSNNを訓練し、2:3共鳴カイパーベルトの物体の動きを25,000 yrの長時間学習する。
その結果,これまでの研究で構築されたニューラルネットワークに対して,(1)ジャコビ積分の保存,(2)軌道進化の高精度予測という2つの重要な改善が得られた。
全体として、設計したLSNNは、より一般的なハミルトン系の長期的な進化の予測を大幅に改善する可能性を示唆する。
関連論文リスト
- Planning in a recurrent neural network that plays Sokoban [6.059513516334741]
ニューラルネットワークが新しい状況にどのように一般化するかは、計画プロセスを通じて行動的を選択することを学習したかどうかに依存する。
我々は、Skobanをプレイするように訓練された繰り返しNNが計画しているように見え、RNNの成功率を改善する余分な計算ステップが得られた。
モデル手術を行い、畳み込みNNが10×10のアーキテクチャ限界を超えて一般化できるようにする。
論文 参考訳(メタデータ) (2024-07-22T06:57:34Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Deep-OSG: Deep Learning of Operators in Semigroup [3.760694122994852]
本稿では,半群における学習者のための新しい深層学習手法を提案する。
様々な時間ラグで収集された時系列データを用いて未知の自律力学系をモデル化する。
論文 参考訳(メタデータ) (2023-02-07T10:04:52Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - A Neural Network Perturbation Theory Based on the Born Series [0.0]
ディープニューラルネットワーク(DNN)のテイラー係数は、主に解釈可能性研究の光に現れる。
このギャップは、ニューラルネットワーク(NN)テイラー展開の一般的な定式化を動機付けている。
NNは、主に対象関数のテイラー展開の先頭順にその導関数を適応することを示す。
論文 参考訳(メタデータ) (2020-09-07T15:54:27Z) - Symplectic Neural Networks in Taylor Series Form for Hamiltonian Systems [15.523425139375226]
我々は,Symphlectic Taylor Neural Networks (Taylor-nets) という,効率的かつ軽量な学習アルゴリズムを提案する。
スパース・短期観測に基づく複素ハミルトン力学系の連続的長期予測を行う。
我々は、振り子、ロトカ-ボルテラ、ケプラー、ヘノン-ハイレス系を含むハミルトン力学系の幅広いスペクトルを予測する上で、テイラー-ネットの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。