論文の概要: Learning Stochastic Dynamics with Statistics-Informed Neural Network
- arxiv url: http://arxiv.org/abs/2202.12278v1
- Date: Thu, 24 Feb 2022 18:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:32:53.741034
- Title: Learning Stochastic Dynamics with Statistics-Informed Neural Network
- Title(参考訳): 統計インフォームドニューラルネットワークを用いた確率力学の学習
- Authors: Yuanran Zhu, Yu-Hang Tang, Changho Kim
- Abstract要約: データからダイナミクスを学習するための、統計情報ニューラルネットワーク(SINN)という機械学習フレームワークを導入する。
本研究では,ニューラルネットワークモデルの学習機構を考案し,対象プロセスの正しい統計的挙動を再現する。
得られた低次モデルが時間的に粗い粒度データに基づいて訓練可能であることを示す。
- 参考スコア(独自算出の注目度): 0.4297070083645049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a machine-learning framework named statistics-informed neural
network (SINN) for learning stochastic dynamics from data. This new
architecture was theoretically inspired by a universal approximation theorem
for stochastic systems introduced in this paper and the projection-operator
formalism for stochastic modeling. We devise mechanisms for training the neural
network model to reproduce the correct \emph{statistical} behavior of a target
stochastic process. Numerical simulation results demonstrate that a
well-trained SINN can reliably approximate both Markovian and non-Markovian
stochastic dynamics. We demonstrate the applicability of SINN to model
transition dynamics. Furthermore, we show that the obtained reduced-order model
can be trained on temporally coarse-grained data and hence is well suited for
rare-event simulations.
- Abstract(参考訳): データから確率力学を学習するための統計情報ニューラルネットワーク(SINN)という機械学習フレームワークを導入する。
この新アーキテクチャは、理論上は確率系に対する普遍近似定理と確率モデリングのための射影的形式理論に着想を得たものである。
対象の確率過程の正しい \emph{statistical} 挙動を再現するために、ニューラルネットワークモデルをトレーニングするためのメカニズムを考案する。
数値シミュレーションの結果、よく訓練されたSINNはマルコフ力学と非マルコフ確率力学の両方を確実に近似できることを示した。
我々は,sinのモデル遷移ダイナミクスへの適用性を示す。
さらに,得られた還元次モデルが時間的粗粒データに基づいて訓練可能であることを示し,レアイベントシミュレーションに適することを示す。
関連論文リスト
- Inferring stochastic low-rank recurrent neural networks from neural data [5.179844449042386]
計算神経科学における中心的な目的は、大きなニューロンの活動と基礎となる力学系を関連付けることである。
低ランクリカレントニューラルネットワーク(RNN)は、トラクタブルダイナミクスを持つことによって、そのような解釈可能性を示す。
そこで本研究では,低ランクRNNをモンテカルロ変分法に適合させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T15:57:49Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - How Inverse Conditional Flows Can Serve as a Substitute for Distributional Regression [2.9873759776815527]
逆流変換(DRIFT)を用いた分布回帰の枠組みを提案する。
DRIFTは解釈可能な統計モデルと柔軟なニューラルネットワークの両方をカバーする。
論文 参考訳(メタデータ) (2024-05-08T21:19:18Z) - Equivariant Neural Simulators for Stochastic Spatiotemporal Dynamics [3.909855210960908]
Equi Probabilistic Neural Simulation (EPNS)は、同変分布の自己回帰モデリングのためのフレームワークである。
EPNSは、確率的シミュレーションのための既存のニューラルネットワークベースの手法をかなり上回っている。
論文 参考訳(メタデータ) (2023-05-23T17:30:10Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Learning continuous models for continuous physics [94.42705784823997]
本研究では,科学技術応用のための機械学習モデルを検証する数値解析理論に基づくテストを開発する。
本研究は,従来のMLトレーニング/テスト手法と一体化して,科学・工学分野におけるモデルの検証を行う方法である。
論文 参考訳(メタデータ) (2022-02-17T07:56:46Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。