論文の概要: Stochastic Physics-Informed Neural Networks (SPINN): A Moment-Matching
Framework for Learning Hidden Physics within Stochastic Differential
Equations
- arxiv url: http://arxiv.org/abs/2109.01621v1
- Date: Fri, 3 Sep 2021 16:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 14:05:45.744233
- Title: Stochastic Physics-Informed Neural Networks (SPINN): A Moment-Matching
Framework for Learning Hidden Physics within Stochastic Differential
Equations
- Title(参考訳): 確率物理学インフォームドニューラルネットワーク(SPINN):確率微分方程式における隠れ物理学習のためのモーメントマッチングフレームワーク
- Authors: Jared O'Leary, Joel A. Paulson, and Ali Mesbah
- Abstract要約: 我々は、微分方程式(SDE)内の隠れ物理学を表す方程式を学習するためのディープニューラルネットワークのトレーニングフレームワークを提案する。
提案するフレームワークは、最先端のディープラーニング戦略とともに、不確実性伝播とモーメントマッチング技術に依存している。
- 参考スコア(独自算出の注目度): 4.482886054198202
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Stochastic differential equations (SDEs) are used to describe a wide variety
of complex stochastic dynamical systems. Learning the hidden physics within
SDEs is crucial for unraveling fundamental understanding of the stochastic and
nonlinear behavior of these systems. We propose a flexible and scalable
framework for training deep neural networks to learn constitutive equations
that represent hidden physics within SDEs. The proposed stochastic
physics-informed neural network framework (SPINN) relies on uncertainty
propagation and moment-matching techniques along with state-of-the-art deep
learning strategies. SPINN first propagates stochasticity through the known
structure of the SDE (i.e., the known physics) to predict the time evolution of
statistical moments of the stochastic states. SPINN learns (deep) neural
network representations of the hidden physics by matching the predicted moments
to those estimated from data. Recent advances in automatic differentiation and
mini-batch gradient descent are leveraged to establish the unknown parameters
of the neural networks. We demonstrate SPINN on three benchmark in-silico case
studies and analyze the framework's robustness and numerical stability. SPINN
provides a promising new direction for systematically unraveling the hidden
physics of multivariate stochastic dynamical systems with multiplicative noise.
- Abstract(参考訳): 確率微分方程式(SDE)は、様々な複雑な確率力学系を記述するために用いられる。
SDEの内部で隠れた物理学を学ぶことは、これらのシステムの確率的および非線形な振る舞いの基本的な理解を明らかにするために重要である。
本研究では、深層ニューラルネットワークを学習し、SDE内の隠れ物理を表す構成方程式を学習するための柔軟でスケーラブルなフレームワークを提案する。
提案した確率物理学情報ニューラルネットワークフレームワーク(SPINN)は、不確実性伝播とモーメントマッチング技術と最先端のディープラーニング戦略に依存している。
スピンは最初にsdeの既知の構造(すなわち既知の物理学)を通じて確率性を伝播し、確率状態の統計モーメントの時間発展を予測する。
SPINNは、予測モーメントをデータから推定されたものとマッチングすることで、隠れた物理学のニューラルネットワーク表現(ディープ)を学ぶ。
ニューラルネットワークの未知のパラメータを確立するために, 自動微分とミニバッチ勾配降下の最近の進歩を活用している。
我々は,SPINNを3つのケーススタディのベンチマークで実証し,フレームワークの堅牢性と数値安定性を解析した。
SPINNは、多変量確率力学系の隠れ物理を乗法雑音で体系的に解き放つための、有望な新しい方向を提供する。
関連論文リスト
- PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Learning effective dynamics from data-driven stochastic systems [2.4578723416255754]
この研究は、低速力学系に対する効果的な力学の研究に費やされている。
遅い多様体を学習するために,Auto-SDEと呼ばれるニューラルネットワークを含む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T09:56:58Z) - Imitating Deep Learning Dynamics via Locally Elastic Stochastic
Differential Equations [20.066631203802302]
本研究では, 深層学習における特徴の進化を, それぞれが学習サンプルに対応する微分方程式(SDE)を用いて研究する。
我々の結果は、ニューラルネットワークのトレーニング力学における局所弾性の決定的な役割に光を当てた。
論文 参考訳(メタデータ) (2021-10-11T17:17:20Z) - SPINN: Sparse, Physics-based, and Interpretable Neural Networks for PDEs [0.0]
Sparse, Physics-based, and Interpretable Neural Networks (SPINN) のクラスを導入し,一般微分方程式と部分微分方程式を解く。
従来のPDEのソリューションのメッシュレス表現を特別なスパースディープニューラルネットワークとして再解釈することにより、解釈可能なスパースニューラルネットワークアーキテクチャのクラスを開発する。
論文 参考訳(メタデータ) (2021-02-25T17:45:50Z) - Learning Continuous-Time Dynamics by Stochastic Differential Networks [32.63114111531396]
変動微分ネットワーク(VSDN)という,フレキシブルな連続時間リカレントニューラルネットワークを提案する。
VSDNは神経微分方程式(SDE)による散発時間系列の複雑なダイナミクスを埋め込む
VSDNは最先端の継続的ディープラーニングモデルより優れており、散発時系列の予測やタスクにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-06-11T01:40:34Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。