論文の概要: Nonparametric learning of stochastic differential equations from sparse and noisy data
- arxiv url: http://arxiv.org/abs/2508.11597v1
- Date: Fri, 15 Aug 2025 17:01:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.155797
- Title: Nonparametric learning of stochastic differential equations from sparse and noisy data
- Title(参考訳): スパースおよび雑音データからの確率微分方程式の非パラメトリック学習
- Authors: Arnab Ganguly, Riten Mitra, Jinpu Zhou,
- Abstract要約: 強い構造仮定なしでデータから直接ドリフト関数を学習する。
我々は,新しいモンテカルロ法(SMC)を用いた期待最大化法(EM)アルゴリズムを開発した。
EM-SMC-RKHS法により、低データ状態における力学系のドリフト関数を正確に推定できる。
- 参考スコア(独自算出の注目度): 2.389598109913754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper proposes a systematic framework for building data-driven stochastic differential equation (SDE) models from sparse, noisy observations. Unlike traditional parametric approaches, which assume a known functional form for the drift, our goal here is to learn the entire drift function directly from data without strong structural assumptions, making it especially relevant in scientific disciplines where system dynamics are partially understood or highly complex. We cast the estimation problem as minimization of the penalized negative log-likelihood functional over a reproducing kernel Hilbert space (RKHS). In the sparse observation regime, the presence of unobserved trajectory segments makes the SDE likelihood intractable. To address this, we develop an Expectation-Maximization (EM) algorithm that employs a novel Sequential Monte Carlo (SMC) method to approximate the filtering distribution and generate Monte Carlo estimates of the E-step objective. The M-step then reduces to a penalized empirical risk minimization problem in the RKHS, whose minimizer is given by a finite linear combination of kernel functions via a generalized representer theorem. To control model complexity across EM iterations, we also develop a hybrid Bayesian variant of the algorithm that uses shrinkage priors to identify significant coefficients in the kernel expansion. We establish important theoretical convergence results for both the exact and approximate EM sequences. The resulting EM-SMC-RKHS procedure enables accurate estimation of the drift function of stochastic dynamical systems in low-data regimes and is broadly applicable across domains requiring continuous-time modeling under observational constraints. We demonstrate the effectiveness of our method through a series of numerical experiments.
- Abstract(参考訳): 本稿では,疎度・雑音の観測からデータ駆動確率微分方程式(SDE)モデルを構築するための体系的枠組みを提案する。
ドリフトの既知の機能形式を仮定する従来のパラメトリックアプローチとは異なり、我々のゴールは、強い構造的仮定なしでデータから直接ドリフト関数を学習することであり、システム力学が部分的に理解され、複雑である科学分野において特に関係している。
再現カーネルヒルベルト空間(RKHS)上でのペナル化負対数様関数の最小化として推定問題を導いた。
スパース観測系では、観測されていない軌道セグメントが存在するため、SDEの可能性は引き起こせない。
そこで本研究では,新しいモンテカルロ法(SMC)を用いて,フィルタ分布を近似し,Eステップ目標のモンテカルロ推定を生成する期待最大化アルゴリズムを開発した。
M-ステップは RKHS のペナル化された経験的リスク最小化問題に還元され、最小化は一般化された表現定理を通じてカーネル関数の有限線型結合によって与えられる。
EMイテレーション間のモデル複雑性を制御するため,カーネル展開における有意な係数を特定するために,縮小前処理を用いたアルゴリズムのハイブリットベイズ変種も開発した。
我々は、正確なEMシーケンスと近似EMシーケンスの両方に対して重要な理論的収束結果を確立する。
EM-SMC-RKHS法により,低データ状態における確率力学系のドリフト関数の正確な推定が可能となり,観測制約下での連続時間モデリングを必要とする領域にわたって広く適用可能である。
本手法の有効性を数値実験により示す。
関連論文リスト
- Self-Supervised Coarsening of Unstructured Grid with Automatic Differentiation [55.88862563823878]
本研究では,微分可能物理の概念に基づいて,非構造格子を階層化するアルゴリズムを提案する。
多孔質媒質中のわずかに圧縮可能な流体流を制御した線形方程式と波動方程式の2つのPDE上でのアルゴリズムの性能を示す。
その結果,検討したシナリオでは,関心点におけるモデル変数のダイナミクスを保ちながら,格子点数を最大10倍に削減した。
論文 参考訳(メタデータ) (2025-07-24T11:02:13Z) - Momentum Particle Maximum Likelihood [2.4561590439700076]
自由エネルギー関数を最小化するための類似の力学系に基づくアプローチを提案する。
システムを離散化することにより、潜在変数モデルにおける最大推定のための実用的なアルゴリズムを得る。
このアルゴリズムは既存の粒子法を数値実験で上回り、他のMLEアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-12-12T14:53:18Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Rigorous dynamical mean field theory for stochastic gradient descent
methods [17.90683687731009]
一階勾配法の一家系の正確な高次元に対する閉形式方程式を証明した。
これには勾配降下(SGD)やネステロフ加速度などの広く使われているアルゴリズムが含まれる。
論文 参考訳(メタデータ) (2022-10-12T21:10:55Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。