論文の概要: Stationary Density Estimation of It\^o Diffusions Using Deep Learning
- arxiv url: http://arxiv.org/abs/2109.03992v1
- Date: Thu, 9 Sep 2021 01:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 13:57:16.774025
- Title: Stationary Density Estimation of It\^o Diffusions Using Deep Learning
- Title(参考訳): 深層学習によるit\^o拡散の定常密度推定
- Authors: Yiqi Gu, John Harlim, Senwei Liang, Haizhao Yang
- Abstract要約: 離散時間系列からのエルゴード的伊藤拡散の定常測度に関連する密度推定問題を考察する。
我々は深層ニューラルネットワークを用いてSDEのドリフトと拡散の項を近似する。
我々は、適切な数学的仮定の下で提案されたスキームの収束を確立する。
- 参考スコア(独自算出の注目度): 6.8342505943533345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the density estimation problem associated with the
stationary measure of ergodic It\^o diffusions from a discrete-time series that
approximate the solutions of the stochastic differential equations. To take an
advantage of the characterization of density function through the stationary
solution of a parabolic-type Fokker-Planck PDE, we proceed as follows. First,
we employ deep neural networks to approximate the drift and diffusion terms of
the SDE by solving appropriate supervised learning tasks. Subsequently, we
solve a steady-state Fokker-Plank equation associated with the estimated drift
and diffusion coefficients with a neural-network-based least-squares method. We
establish the convergence of the proposed scheme under appropriate mathematical
assumptions, accounting for the generalization errors induced by regressing the
drift and diffusion coefficients, and the PDE solvers. This theoretical study
relies on a recent perturbation theory of Markov chain result that shows a
linear dependence of the density estimation to the error in estimating the
drift term, and generalization error results of nonparametric regression and of
PDE regression solution obtained with neural-network models. The effectiveness
of this method is reflected by numerical simulations of a two-dimensional
Student's t distribution and a 20-dimensional Langevin dynamics.
- Abstract(参考訳): 本稿では,確率微分方程式の解を近似する離散時間列からのエルゴード It\^o 拡散の定常測度に関連する密度推定問題を考察する。
パラボリック型Fokker-Planck PDEの定常解による密度関数のキャラクタリゼーションの利点を生かし、以下のように進める。
まず、深層ニューラルネットワークを用いてSDEのドリフトと拡散の項を近似し、適切な教師付き学習タスクを解く。
次に,推定ドリフト係数と拡散係数に関連する定常フォッカー・プランク方程式をニューラルネットワークに基づく最小二乗法で解く。
本研究では, ドリフト係数と拡散係数の回帰による一般化誤差を考慮し, 適切な数学的仮定の下で提案手法の収束を確立する。
この理論研究は、ドリフト項の推定誤差に対する密度推定の線形依存性を示すマルコフ連鎖結果の最近の摂動理論と、非パラメトリック回帰とニューラルネットワークモデルで得られたpde回帰解の一般化誤差結果に依存している。
本手法の有効性は,2次元学生のt分布と20次元ランジュバンダイナミクスの数値シミュレーションによって反映される。
関連論文リスト
- Diffusion-PINN Sampler [6.656265182236135]
物理インフォームドニューラルネットワーク(PINN)を用いて,基礎となるSDEの対数密度の制御偏微分方程式を解くことにより,ドリフト項を推定する新しい拡散型サンプリングアルゴリズムを提案する。
DPSの収束保証を確立するために、PINN残差損失によって対数密度近似の誤差を制御できることを証明した。
論文 参考訳(メタデータ) (2024-10-20T09:02:16Z) - A hybrid FEM-PINN method for time-dependent partial differential equations [9.631238071993282]
本稿では、時間有限要素法とディープニューラルネットワークを融合させることにより、進化微分方程式(PDE)を解くためのハイブリッド数値計算法を提案する。
このようなハイブリッドな定式化の利点は2つある: 統計誤差は時間方向の積分に対して回避され、ニューラルネットワークの出力は縮小された空間基底関数の集合と見なすことができる。
論文 参考訳(メタデータ) (2024-09-04T15:28:25Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Closing the ODE-SDE gap in score-based diffusion models through the
Fokker-Planck equation [0.562479170374811]
スコアベース拡散モデルのトレーニング時に生じる力学と近似の範囲を厳密に記述する。
従来のスコアベース拡散モデルでは, ODE-とSDE-誘導分布に有意な差が認められることを示す。
論文 参考訳(メタデータ) (2023-11-27T16:44:50Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - GANs as Gradient Flows that Converge [3.8707695363745223]
分布依存常微分方程式によって誘導される勾配流に沿って、未知のデータ分布が長時間の極限として現れることを示す。
ODEのシミュレーションは、生成ネットワーク(GAN)のトレーニングと等価である。
この等価性は、GANの新たな「協力的」見解を提供し、さらに重要なのは、GANの多様化に新たな光を放つことである。
論文 参考訳(メタデータ) (2022-05-05T20:29:13Z) - Model Reduction and Neural Networks for Parametric PDEs [9.405458160620533]
無限次元空間間の入出力マップをデータ駆動で近似するフレームワークを開発した。
提案されたアプローチは、最近のニューラルネットワークとディープラーニングの成功に動機づけられている。
入力出力マップのクラスと、入力に対する適切な選択された確率測度について、提案手法の収束性を証明する。
論文 参考訳(メタデータ) (2020-05-07T00:09:27Z) - Stochastic Normalizing Flows [52.92110730286403]
微分方程式(SDE)を用いた最大推定と変分推論のための正規化フロー(VI)を導入する。
粗い経路の理論を用いて、基礎となるブラウン運動は潜在変数として扱われ、近似され、神経SDEの効率的な訓練を可能にする。
これらのSDEは、与えられたデータセットの基盤となる分布からサンプリングする効率的なチェーンを構築するために使用することができる。
論文 参考訳(メタデータ) (2020-02-21T20:47:55Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。