論文の概要: Learning Stochastic Hamiltonian Systems via Stochastic Generating Function Neural Network
- arxiv url: http://arxiv.org/abs/2507.14467v1
- Date: Sat, 19 Jul 2025 03:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.899893
- Title: Learning Stochastic Hamiltonian Systems via Stochastic Generating Function Neural Network
- Title(参考訳): 確率生成関数ニューラルネットワークによる確率ハミルトン系の学習
- Authors: Chen Chen, Lijin Wang, Yanzhao Cao, Xupeng Cheng,
- Abstract要約: 生成関数ネットワーク(SGFNN)と呼ばれる観測データからハミルトン系(SHS)を学習するための新しいニューラルネットワークモデルを提案する。
SGFNNはハミルトン系のシンプレクティック構造を保持し、シンプレクティック予測を生成する。
ベンチマークニューラルフローマップ学習(SFML)ニューラルネットワークと比較して、SGFNNモデルは様々な予測指標で高い精度を示す。
- 参考スコア(独自算出の注目度): 4.43407215715316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a novel neural network model for learning stochastic Hamiltonian systems (SHSs) from observational data, termed the stochastic generating function neural network (SGFNN). SGFNN preserves symplectic structure of the underlying stochastic Hamiltonian system and produces symplectic predictions. Our model utilizes the autoencoder framework to identify the randomness of the latent system by the encoder network, and detects the stochastic generating function of the system through the decoder network based on the random variables extracted from the encoder. Symplectic predictions can then be generated by the stochastic generating function. Numerical experiments are performed on several stochastic Hamiltonian systems, varying from additive to multiplicative, and from separable to non-separable SHSs with single or multiple noises. Compared with the benchmark stochastic flow map learning (sFML) neural network, our SGFNN model exhibits higher accuracy across various prediction metrics, especially in long-term predictions, with the property of maintaining the symplectic structure of the underlying SHSs.
- Abstract(参考訳): 本稿では、確率生成関数ニューラルネットワーク(SGFNN)と呼ばれる観測データから確率ハミルトン系(SHS)を学習するための新しいニューラルネットワークモデルを提案する。
SGFNNは、基礎となる確率的ハミルトン系のシンプレクティック構造を保持し、シンプレクティック予測を生成する。
本モデルでは, オートエンコーダフレームワークを用いて, エンコーダネットワークによる潜在システムのランダム性を同定し, エンコーダから抽出したランダム変数に基づいてデコーダネットワークを介してシステムの確率的生成関数を検出する。
シンプレクティック予測は確率的生成関数によって生成される。
数値実験はいくつかの確率的ハミルトン系で行われ、加法から乗法へ、分離可能なSHSから分離不能なSHSの1つまたは複数のノイズを含む。
ベンチマーク確率フローマップ学習(SFML)ニューラルネットワークと比較すると,SGFNNモデルは様々な予測指標,特に長期予測において,基礎となるSHSのシンプレクティック構造を維持する特性において高い精度を示す。
関連論文リスト
- A Novel Framework for Learning Stochastic Representations for Sequence Generation and Recognition [0.0]
シーケンシャルなデータの生成と認識は、動的環境で動作する自律システムの基本である。
パラメトリックバイアスを用いた新しいリカレントネットワーク(RNNPB)を提案する。
我々のアプローチは、時間パターンをモデル化するためのフレームワークを提供し、人工知能とロボティクスにおける堅牢なシステムの開発を前進させる。
論文 参考訳(メタデータ) (2024-12-30T07:27:50Z) - Reproduction of AdEx dynamics on neuromorphic hardware through data embedding and simulation-based inference [0.8437187555622164]
我々は、複雑なニューロンモデルの膜トレースから関連する特徴を自動的に抽出するために、オートエンコーダを使用する。
次に、逐次的神経後部推定を利用して、ニューロンパラメータの後方分布を近似する。
このことは,自動エンコーダとSNPEアルゴリズムの組み合わせが,複雑なシステムに対して有望な最適化手法であることを示唆している。
論文 参考訳(メタデータ) (2024-12-03T13:19:21Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Modeling Unknown Stochastic Dynamical System via Autoencoder [3.5489676012585236]
本稿では,未知の力学系に対する正確な予測モデルを軌道データから学習する数値的手法を提案する。
オートエンコーダ(autoencoder)というアイデアを使って、観測されていない潜在確率変数を識別する。
また、非ガウス雑音によって駆動されるシステムにも適用できる。
論文 参考訳(メタデータ) (2023-12-15T18:19:22Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Learning Stochastic Dynamics with Statistics-Informed Neural Network [0.4297070083645049]
データからダイナミクスを学習するための、統計情報ニューラルネットワーク(SINN)という機械学習フレームワークを導入する。
本研究では,ニューラルネットワークモデルの学習機構を考案し,対象プロセスの正しい統計的挙動を再現する。
得られた低次モデルが時間的に粗い粒度データに基づいて訓練可能であることを示す。
論文 参考訳(メタデータ) (2022-02-24T18:21:01Z) - Deep Probabilistic Time Series Forecasting using Augmented Recurrent
Input for Dynamic Systems [12.319812075685956]
我々は、深部生成モデルと状態空間モデル(SSM)の両方の進歩を組み合わせて、新しいデータ駆動の深部確率的シーケンスモデルを考え出す。
特に、リカレントニューラルネットワーク(RNN)を用いた変動配列モデルを構築するために、一般的なエンコーダデコーダ生成構造に従う。
トレーニングと予測の不整合を緩和するために,次のステップでハイブリッド出力を入力として使用することを提案する。
論文 参考訳(メタデータ) (2021-06-03T23:41:11Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。