論文の概要: DynGMA: a robust approach for learning stochastic differential equations from data
- arxiv url: http://arxiv.org/abs/2402.14475v2
- Date: Thu, 20 Jun 2024 03:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 05:09:24.241446
- Title: DynGMA: a robust approach for learning stochastic differential equations from data
- Title(参考訳): DynGMA:データから確率微分方程式を学習するための頑健なアプローチ
- Authors: Aiqing Zhu, Qianxiao Li,
- Abstract要約: パラメータ化されたSDEの遷移密度に新しい近似を導入する。
本手法は, 完全に未知のドリフト拡散関数の学習において, ベースライン法と比較して精度が高い。
低時間解像度と可変、さらには制御不能な時間ステップサイズでデータを処理できる。
- 参考スコア(独自算出の注目度): 13.858051019755283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning unknown stochastic differential equations (SDEs) from observed data is a significant and challenging task with applications in various fields. Current approaches often use neural networks to represent drift and diffusion functions, and construct likelihood-based loss by approximating the transition density to train these networks. However, these methods often rely on one-step stochastic numerical schemes, necessitating data with sufficiently high time resolution. In this paper, we introduce novel approximations to the transition density of the parameterized SDE: a Gaussian density approximation inspired by the random perturbation theory of dynamical systems, and its extension, the dynamical Gaussian mixture approximation (DynGMA). Benefiting from the robust density approximation, our method exhibits superior accuracy compared to baseline methods in learning the fully unknown drift and diffusion functions and computing the invariant distribution from trajectory data. And it is capable of handling trajectory data with low time resolution and variable, even uncontrollable, time step sizes, such as data generated from Gillespie's stochastic simulations. We then conduct several experiments across various scenarios to verify the advantages and robustness of the proposed method.
- Abstract(参考訳): 観測データから未知確率微分方程式(SDE)を学習することは、様々な分野の応用において重要かつ困難な課題である。
現在のアプローチでは、しばしばニューラルネットワークを使用してドリフトと拡散関数を表現し、それらのネットワークをトレーニングするために遷移密度を近似することで可能性に基づく損失を構築する。
しかし、これらの手法はしばしば1段階の確率的数値スキームに依存し、十分な時間分解能を持つデータを必要とする。
本稿では、動的系のランダム摂動理論に着想を得たガウス密度近似と、その拡張である動的ガウス混合近似(DynGMA)について、パラメータ化SDEの遷移密度に対する新しい近似を導入する。
本手法は, ドリフトと拡散関数を学習し, 軌道データから不変分布を計算する際に, ベースライン法と比較して精度が高い。
また、Gillespieの確率的シミュレーションから生成されたデータのように、低時間分解能と可変、さらには制御不能な時間ステップサイズでトラジェクトリデータを処理できる。
次に,提案手法の利点とロバスト性を検証するために,様々なシナリオで実験を行った。
関連論文リスト
- Dynamical Measure Transport and Neural PDE Solvers for Sampling [77.38204731939273]
本研究では, 対象物へのトラクタブル密度関数の移動として, 確率密度からサンプリングする作業に取り組む。
物理インフォームドニューラルネットワーク(PINN)を用いて各偏微分方程式(PDE)の解を近似する。
PINNはシミュレーションと離散化のない最適化を可能にし、非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2024-07-10T17:39:50Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - A Geometric Perspective on Diffusion Models [60.69328526215776]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングを検証し,そのサンプリングダイナミクスの興味深い構造を明らかにした。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Rigorous dynamical mean field theory for stochastic gradient descent
methods [17.90683687731009]
一階勾配法の一家系の正確な高次元に対する閉形式方程式を証明した。
これには勾配降下(SGD)やネステロフ加速度などの広く使われているアルゴリズムが含まれる。
論文 参考訳(メタデータ) (2022-10-12T21:10:55Z) - Extracting Stochastic Governing Laws by Nonlocal Kramers-Moyal Formulas [3.8325907381729496]
我々は、(ガウス)ブラウン運動と(非ガウス)レヴィ運動の両方を用いて、規制法則を抽出するデータ駆動アプローチを提案する。
このアプローチがL'evy運動を伴う微分方程式を学習できることを実証する。
論文 参考訳(メタデータ) (2021-08-28T04:56:51Z) - Extracting Governing Laws from Sample Path Data of Non-Gaussian
Stochastic Dynamical Systems [4.527698247742305]
我々は、利用可能なデータから非ガウスL'evy雑音の方程式を推定し、動的挙動を合理的に予測する。
理論的枠組みを確立し、非対称なL'evyジャンプ測度、ドリフト、拡散を計算する数値アルゴリズムを設計する。
この方法は、利用可能なデータセットから規制法則を発見し、複雑なランダム現象のメカニズムを理解するのに有効なツールとなる。
論文 参考訳(メタデータ) (2021-07-21T14:50:36Z) - Learning effective stochastic differential equations from microscopic
simulations: combining stochastic numerics and deep learning [0.46180371154032895]
ニューラルネットワークを用いた実効SDEにおけるドリフトと拡散関数を近似した。
当社のアプローチでは、長いトラジェクトリを必要とせず、散在するスナップショットデータで動作し、スナップショット毎に異なるタイムステップを自然に処理するように設計されています。
論文 参考訳(メタデータ) (2021-06-10T13:00:18Z) - A Data-Driven Approach for Discovering Stochastic Dynamical Systems with
Non-Gaussian Levy Noise [5.17900889163564]
ノイズの多いデータセットから規制法則を抽出する新しいデータ駆動手法を開発した。
まず, ドリフト係数, 拡散係数, ジャンプ測度を表現し, 実現可能な理論的枠組みを確立する。
そこで我々は, ドリフト, 拡散係数, ジャンプ測度を計算する数値アルゴリズムを設計し, ガウス雑音および非ガウス雑音による支配方程式を抽出する。
論文 参考訳(メタデータ) (2020-05-07T21:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。