論文の概要: Time-adaptive HénonNets for separable Hamiltonian systems
- arxiv url: http://arxiv.org/abs/2509.20212v1
- Date: Wed, 24 Sep 2025 15:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.870456
- Title: Time-adaptive HénonNets for separable Hamiltonian systems
- Title(参考訳): 分離ハミルトニアン系に対する時間適応ヘノンネット
- Authors: Konrad Janik, Peter Benner,
- Abstract要約: 我々はT-H'enonNetsを提案し、これは設計によってシンプレクティックであり、適応的な時間ステップを処理できる。
また、T-H'enonNetアーキテクチャを非自明なハミルトン系に拡張する。
- 参考スコア(独自算出の注目度): 1.0542145271875853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measurement data is often sampled irregularly, i.e., not on equidistant time grids. This is also true for Hamiltonian systems. However, existing machine learning methods, which learn symplectic integrators, such as SympNets [1] and H\'enonNets [2] still require training data generated by fixed step sizes. To learn time-adaptive symplectic integrators, an extension to SympNets called TSympNets is introduced in [3]. The aim of this work is to do a similar extension for H\'enonNets. We propose a novel neural network architecture called T-H\'enonNets, which is symplectic by design and can handle adaptive time steps. We also extend the T-H\'enonNet architecture to non-autonomous Hamiltonian systems. Additionally, we provide universal approximation theorems for both new architectures for separable Hamiltonian systems and discuss why it is difficult to handle non-separable Hamiltonian systems with the proposed methods. To investigate these theoretical approximation capabilities, we perform different numerical experiments.
- Abstract(参考訳): 測定データは不規則にサンプリングされることが多い。
これはハミルトン系にも当てはまる。
しかし、SympNets [1]やH\'enonNets [2]のようなシンプレクティックインテグレータを学習する既存の機械学習手法では、固定ステップサイズで生成されたトレーニングデータが必要である。
時間適応型シンプレクティックインテグレータを学習するために、[3]でTSympNetsと呼ばれるSympNetsの拡張を紹介します。
この作業の目的は、H\'enonNetsの同様の拡張を行うことである。
我々はT-H\enonNetsと呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
また、T-H'enonNetアーキテクチャを非自明なハミルトン系に拡張する。
さらに、分離ハミルトニアン系に対する新しいアーキテクチャの両方に対して普遍近似定理を提供し、提案手法で非分離ハミルトニアン系を扱うのがなぜ難しいのかについて議論する。
これらの理論近似能力を調べるために、我々は異なる数値実験を行う。
関連論文リスト
- Time-adaptive SympNets for separable Hamiltonian systems [1.0542145271875853]
分離ハミルトニアン系に対する普遍近似定理を提供し、非分離ハミルトニアン系へ拡張することは不可能であることを示す。
我々は、一般にシンプレクティックマップの近似に関する実質的な定理の証明において、誤りを修正するが、特にシンプレクティック機械学習の手法について述べる。
論文 参考訳(メタデータ) (2025-09-19T14:33:21Z) - Hamiltonian Matching for Symplectic Neural Integrators [9.786274281068815]
ハミルトンの運動方程式は、天文学、量子力学、粒子物理学、気候科学など、物理学の様々な分野における基本的な枠組みを形成している。古典的な数値解法は通常、これらの系の時間発展を計算するために用いられる。
パラメトリック時間依存ハミルトニアン関数の正確なフローマップの列を構成するニューラルネットワークに基づく新しいシンプレクティックインテグレータであるSympFlowを提案する。
論文 参考訳(メタデータ) (2024-10-23T20:21:56Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Symplectic Neural Networks Based on Dynamical Systems [0.0]
我々はハミルトン微分方程式の幾何に基づくシンプレクティックニューラルネットワーク(SympNets)のフレームワークを提案し,解析する。
SympNets はハミルトン微分同相空間の普遍近似子であり、解釈可能であり、非消滅性を持つ。
論文 参考訳(メタデータ) (2024-08-19T09:18:28Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Symplectic Neural Networks in Taylor Series Form for Hamiltonian Systems [15.523425139375226]
我々は,Symphlectic Taylor Neural Networks (Taylor-nets) という,効率的かつ軽量な学習アルゴリズムを提案する。
スパース・短期観測に基づく複素ハミルトン力学系の連続的長期予測を行う。
我々は、振り子、ロトカ-ボルテラ、ケプラー、ヘノン-ハイレス系を含むハミルトン力学系の幅広いスペクトルを予測する上で、テイラー-ネットの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T10:32:29Z) - SympNets: Intrinsic structure-preserving symplectic networks for
identifying Hamiltonian systems [2.6016814327894466]
線形, アクティベーション, 勾配モジュールからなるデータからハミルトン系を特定するための新しいシンプレクティックネットワーク(SympNets)を提案する。
具体的には、線形および活性化モジュールからなるLA-SympNetsと勾配モジュールからなるG-SympNetsの2つのクラスを定義する。
論文 参考訳(メタデータ) (2020-01-11T13:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。