論文の概要: Learning stochastic dynamical systems with neural networks mimicking the
Euler-Maruyama scheme
- arxiv url: http://arxiv.org/abs/2105.08449v1
- Date: Tue, 18 May 2021 11:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:51:28.561307
- Title: Learning stochastic dynamical systems with neural networks mimicking the
Euler-Maruyama scheme
- Title(参考訳): Euler-Maruyamaスキームを模倣したニューラルネットワークによる確率力学系の学習
- Authors: Noura Dridi, Lucas Drumetz, Ronan Fablet
- Abstract要約: 本稿では,SDEのパラメータを組み込みのSDE統合方式でニューラルネットワークで表現するデータ駆動手法を提案する。
このアルゴリズムは、幾何学的ブラウン運動とロレンツ-63モデルのバージョンに適用される。
- 参考スコア(独自算出の注目度): 14.436723124352817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic differential equations (SDEs) are one of the most important
representations of dynamical systems. They are notable for the ability to
include a deterministic component of the system and a stochastic one to
represent random unknown factors. However, this makes learning SDEs much more
challenging than ordinary differential equations (ODEs). In this paper, we
propose a data driven approach where parameters of the SDE are represented by a
neural network with a built-in SDE integration scheme. The loss function is
based on a maximum likelihood criterion, under order one Markov Gaussian
assumptions. The algorithm is applied to the geometric brownian motion and a
stochastic version of the Lorenz-63 model. The latter is particularly hard to
handle due to the presence of a stochastic component that depends on the state.
The algorithm performance is attested using different simulations results.
Besides, comparisons are performed with the reference gradient matching method
used for non linear drift estimation, and a neural networks-based method, that
does not consider the stochastic term.
- Abstract(参考訳): 確率微分方程式(SDE)は力学系の最も重要な表現の一つである。
これらは、システムの決定論的構成要素と、ランダムな未知の要因を表す確率的要素を含む能力で特筆される。
しかし、これはSDEの学習を通常の微分方程式(ODE)よりもはるかに困難にする。
本稿では、SDEのパラメータをSDE統合スキームを組み込んだニューラルネットワークで表現するデータ駆動手法を提案する。
損失関数は最大確率基準に基づいており、1つのマルコフ・ガウスの仮定に従っている。
このアルゴリズムは、幾何学的ブラウン運動とロレンツ-63モデルの確率バージョンに適用される。
後者は、状態に依存する確率的なコンポーネントが存在するため、特に対処が難しい。
アルゴリズムの性能は異なるシミュレーション結果を用いて検証される。
さらに,非線型ドリフト推定に用いる基準勾配マッチング法と,確率項を考慮しないニューラルネットワークに基づく手法との比較を行った。
関連論文リスト
- Learning Controlled Stochastic Differential Equations [61.82896036131116]
本研究では,非一様拡散を伴う連続多次元非線形微分方程式のドリフト係数と拡散係数の両方を推定する新しい手法を提案する。
我々は、(L2)、(Linfty)の有限サンプル境界や、係数の正則性に適応する学習率を持つリスクメトリクスを含む、強力な理論的保証を提供する。
当社のメソッドはオープンソースPythonライブラリとして利用可能です。
論文 参考訳(メタデータ) (2024-11-04T11:09:58Z) - Noise in the reverse process improves the approximation capabilities of
diffusion models [27.65800389807353]
生成モデリングにおける最先端技術であるスコアベース生成モデリング(SGM)では、リバースプロセスは決定論的手法よりも優れた性能を発揮することが知られている。
本稿では,ニューラル常微分方程式 (ODE) とニューラルディメンション方程式 (SDE) を逆過程として比較し,この現象の核となる。
我々は、Fokker-Planck方程式の軌跡を近似するニューラルSDEの能力を解析し、ニューラルティの利点を明らかにする。
論文 参考訳(メタデータ) (2023-12-13T02:39:10Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Learning Subgrid-scale Models with Neural Ordinary Differential
Equations [0.39160947065896795]
偏微分方程式(PDE)をシミュレートする際のサブグリッドスケールモデル学習のための新しい手法を提案する。
このアプローチでは、ニューラルネットワークは粗大から細小のグリッドマップを学習するために使用され、これはサブグリッドスケールのパラメータ化と見なすことができる。
提案手法はNODEの利点を継承し,サブグリッドスケールのパラメータ化,近似結合演算子,低次解法の効率向上に利用することができる。
論文 参考訳(メタデータ) (2022-12-20T02:45:09Z) - PI-VAE: Physics-Informed Variational Auto-Encoder for stochastic
differential equations [2.741266294612776]
我々は、物理学インフォームド・ニューラルネットワーク(PI-VAE)と呼ばれる新しいタイプの物理インフォームド・ニューラルネットワークを提案する。
PI-VAEは、システム変数とパラメータのサンプルを生成する変分オートエンコーダ(VAE)で構成されている。
提案手法の精度と効率を,物理インフォームド生成対向ネットワーク (PI-WGAN) と比較して数値的に検証した。
論文 参考訳(メタデータ) (2022-03-21T21:51:19Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Learning effective stochastic differential equations from microscopic
simulations: combining stochastic numerics and deep learning [0.46180371154032895]
ニューラルネットワークを用いた実効SDEにおけるドリフトと拡散関数を近似した。
当社のアプローチでは、長いトラジェクトリを必要とせず、散在するスナップショットデータで動作し、スナップショット毎に異なるタイムステップを自然に処理するように設計されています。
論文 参考訳(メタデータ) (2021-06-10T13:00:18Z) - Weak SINDy For Partial Differential Equations [0.0]
我々はWeak SINDy(WSINDy)フレームワークを偏微分方程式(PDE)の設定にまで拡張する。
弱い形状による点微分近似の除去は、ノイズフリーデータからモデル係数の効率的な機械的精度回復を可能にする。
我々は、いくつかの挑戦的なPDEに対して、WSINDyの堅牢性、速度、精度を実証する。
論文 参考訳(メタデータ) (2020-07-06T16:03:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。