論文の概要: Leap-frog neural network for learning the symplectic evolution from
partitioned data
- arxiv url: http://arxiv.org/abs/2208.14148v1
- Date: Tue, 30 Aug 2022 11:08:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:44:40.228189
- Title: Leap-frog neural network for learning the symplectic evolution from
partitioned data
- Title(参考訳): 分割データからシンプレクティック進化を学習するLeap-frogニューラルネットワーク
- Authors: Xin Li, Jian Li and Zhihong Jeff Xia
- Abstract要約: この研究は、シンプレクティック進化写像によって生成される位置 (q) と運動量 (p) 変数の学習と予測について考察する。
時系列を複数の分割に分割し,その生成関数を近似するために跳躍型ニューラルネットワークを訓練することにより,新たな学習手法を開発する。
- 参考スコア(独自算出の注目度): 10.339901660012199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the Hamiltonian system, this work considers the learning and prediction
of the position (q) and momentum (p) variables generated by a symplectic
evolution map. Similar to Chen & Tao (2021), the symplectic map is represented
by the generating function. In addition, we develop a new learning scheme by
splitting the time series (q_i, p_i) into several partitions, and then train a
leap-frog neural network (LFNN) to approximate the generating function between
the first (i.e. initial condition) and one of the rest partitions. For
predicting the system evolution in a short timescale, the LFNN could
effectively avoid the issue of accumulative error. Then the LFNN is applied to
learn the behavior of the 2:3 resonant Kuiper belt objects, in a much longer
time period, and there are two significant improvements on the neural network
constructed in our previous work (Li et al. 2022): (1) conservation of the
Jacobi integral ; (2) highly accurate prediction of the orbital evolution. We
propose that the LFNN may be useful to make the prediction of the long time
evolution of the Hamiltonian system.
- Abstract(参考訳): ハミルトン系では, 位置の学習と予測について考察する。
(q)と運動量
(p)シンプレクティック進化マップによって生成される変数。
chen & tao (2021) と同様、シンプレクティック写像は生成関数によって表現される。
さらに、時系列(q_i, p_i)を複数のパーティションに分割し、次に跳躍フロッグニューラルネットワーク(LFNN)をトレーニングして、最初の(初期条件)と残りのパーティションの1つの生成関数を近似することで、新しい学習手法を開発する。
システム進化を短時間で予測するために、LFNNは累積誤差の問題を効果的に回避できる。
次に、lfnnを用いて2:3共鳴カイパーベルトの挙動をかなり長い時間で学習し、前の研究で構築されたニューラルネットワークに2つの重要な改善(li et al. 2022):(1)ジャコビ積分の保存、(2)軌道進化の高精度予測。
LFNNはハミルトン系の長期進化を予測するのに有用である可能性が示唆された。
関連論文リスト
- Planning in a recurrent neural network that plays Sokoban [6.059513516334741]
ニューラルネットワークが新しい状況にどのように一般化するかは、計画プロセスを通じて行動的を選択することを学習したかどうかに依存する。
我々は、Skobanをプレイするように訓練された繰り返しNNが計画しているように見え、RNNの成功率を改善する余分な計算ステップが得られた。
モデル手術を行い、畳み込みNNが10×10のアーキテクチャ限界を超えて一般化できるようにする。
論文 参考訳(メタデータ) (2024-07-22T06:57:34Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Deep-OSG: Deep Learning of Operators in Semigroup [3.760694122994852]
本稿では,半群における学習者のための新しい深層学習手法を提案する。
様々な時間ラグで収集された時系列データを用いて未知の自律力学系をモデル化する。
論文 参考訳(メタデータ) (2023-02-07T10:04:52Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - A Neural Network Perturbation Theory Based on the Born Series [0.0]
ディープニューラルネットワーク(DNN)のテイラー係数は、主に解釈可能性研究の光に現れる。
このギャップは、ニューラルネットワーク(NN)テイラー展開の一般的な定式化を動機付けている。
NNは、主に対象関数のテイラー展開の先頭順にその導関数を適応することを示す。
論文 参考訳(メタデータ) (2020-09-07T15:54:27Z) - Symplectic Neural Networks in Taylor Series Form for Hamiltonian Systems [15.523425139375226]
我々は,Symphlectic Taylor Neural Networks (Taylor-nets) という,効率的かつ軽量な学習アルゴリズムを提案する。
スパース・短期観測に基づく複素ハミルトン力学系の連続的長期予測を行う。
我々は、振り子、ロトカ-ボルテラ、ケプラー、ヘノン-ハイレス系を含むハミルトン力学系の幅広いスペクトルを予測する上で、テイラー-ネットの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。