論文の概要: Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence
- arxiv url: http://arxiv.org/abs/2305.15557v2
- Date: Tue, 23 Apr 2024 11:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 20:14:41.040719
- Title: Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence
- Title(参考訳): 非漸近的収束速度をもつ確率微分方程式の非パラメトリック学習
- Authors: Riccardo Bonalli, Alessandro Rudi,
- Abstract要約: 非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
- 参考スコア(独自算出の注目度): 65.63201894457404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel non-parametric learning paradigm for the identification of drift and diffusion coefficients of multi-dimensional non-linear stochastic differential equations, which relies upon discrete-time observations of the state. The key idea essentially consists of fitting a RKHS-based approximation of the corresponding Fokker-Planck equation to such observations, yielding theoretical estimates of non-asymptotic learning rates which, unlike previous works, become increasingly tighter when the regularity of the unknown drift and diffusion coefficients becomes higher. Our method being kernel-based, offline pre-processing may be profitably leveraged to enable efficient numerical implementation, offering excellent balance between precision and computational complexity.
- Abstract(参考訳): 状態の離散時間観測に依存する多次元非線形確率微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に当てはめ、未知のドリフトと拡散係数の正則性が高くなると、従来の研究とは異なり、より厳密になる非漸近学習率の理論的推定値が得られることである。
カーネルベースでオフラインのプリプロセッシングを行う手法は,効率的な数値実装を実現するために利益を生かし,精度と計算複雑性のバランスが良好である。
関連論文リスト
- Neural Ordinary Differential Equations for Nonlinear System
Identification [0.9864260997723973]
本研究では,NODEの性能をニューラル状態空間モデルと古典線形システム同定法と比較する。
実験の結果,NODEはベンチマーク手法に比べて精度を桁違いに向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-28T22:25:53Z) - Stationary Density Estimation of It\^o Diffusions Using Deep Learning [6.8342505943533345]
離散時間系列からのエルゴード的伊藤拡散の定常測度に関連する密度推定問題を考察する。
我々は深層ニューラルネットワークを用いてSDEのドリフトと拡散の項を近似する。
我々は、適切な数学的仮定の下で提案されたスキームの収束を確立する。
論文 参考訳(メタデータ) (2021-09-09T01:57:14Z) - Nonlinear Independent Component Analysis for Continuous-Time Signals [85.59763606620938]
このプロセスの混合物の観察から多次元音源過程を復元する古典的問題を考察する。
このリカバリは、この混合物が十分に微分可能で可逆な関数によって与えられる場合、多くの一般的なプロセスのモデル(座標の順序と単調スケーリングまで)に対して可能であることを示す。
論文 参考訳(メタデータ) (2021-02-04T20:28:44Z) - Boosting in Univariate Nonparametric Maximum Likelihood Estimation [5.770800671793959]
非パラメトリック最大推定は未知の密度分布を推定することを目的としている。
非パラメトリックデータフィッティングにおけるオーバーパラメータ化を軽減するため、スムーズな仮定は通常、推定にマージされる。
非パラメトリックログ類似性の2次近似によりブースティングアルゴリズムを推定する。
論文 参考訳(メタデータ) (2021-01-21T08:46:33Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z) - A Deterministic Approximation to Neural SDEs [38.23826389188657]
本研究では,NSDEから精度の高い不確実性推定値を取得することは,計算的に禁止されていることを示す。
我々は、遷移カーネルを正確に近似する計算的に手頃な決定論的スキームを開発する。
また,決定論的学習の数値的安定性により予測精度も向上する。
論文 参考訳(メタデータ) (2020-06-16T08:00:26Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。