論文の概要: Drift Estimation for Diffusion Processes Using Neural Networks Based on Discretely Observed Independent Paths
- arxiv url: http://arxiv.org/abs/2511.11161v1
- Date: Fri, 14 Nov 2025 10:56:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.544134
- Title: Drift Estimation for Diffusion Processes Using Neural Networks Based on Discretely Observed Independent Paths
- Title(参考訳): 離散独立経路に基づくニューラルネットワークによる拡散過程のドリフト推定
- Authors: Yuzhen Zhao, Yating Liu, Marc Hoffmann,
- Abstract要約: 本稿では,時間均質拡散過程におけるコンパクト領域上のドリフト関数の非パラメトリック推定について述べる。
ニューラルネットワークに基づく推定器を提案し、非漸近収束率を導出し、トレーニング誤差、近似誤差、拡散関連項のスケーリングを$log N/N$とする。
- 参考スコア(独自算出の注目度): 10.214978140001858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the nonparametric estimation of the drift function over a compact domain for a time-homogeneous diffusion process, based on high-frequency discrete observations from $N$ independent trajectories. We propose a neural network-based estimator and derive a non-asymptotic convergence rate, decomposed into a training error, an approximation error, and a diffusion-related term scaling as ${\log N}/{N}$. For compositional drift functions, we establish an explicit rate. In the numerical experiments, we consider a drift function with local fluctuations generated by a double-layer compositional structure featuring local oscillations, and show that the empirical convergence rate becomes independent of the input dimension $d$. Compared to the $B$-spline method, the neural network estimator achieves better convergence rates and more effectively captures local features, particularly in higher-dimensional settings.
- Abstract(参考訳): 本稿では,N$独立軌跡からの高周波離散観測に基づいて,時間均質拡散過程におけるコンパクト領域上のドリフト関数の非パラメトリック推定について述べる。
ニューラルネットワークに基づく推定器を提案し、非漸近収束率を導出し、トレーニング誤差、近似誤差、拡散関連項のスケーリングを${\log N}/{N}$とする。
構成的ドリフト関数に対しては、明示的なレートを確立する。
数値実験では,局所振動を含む2層構成構造によって生じる局所的ゆらぎを伴うドリフト関数を考察し,経験的収束率が入力次元$d$とは独立であることを示す。
B$-spline法と比較すると、ニューラルネットワーク推定器はより収束率が高く、特に高次元設定において局所的な特徴をより効果的に捉えることができる。
関連論文リスト
- Semi-Implicit Functional Gradient Flow for Efficient Sampling [30.32233517392456]
本稿では,ガウス雑音を近似系とする摂動粒子を用いた関数勾配ParVI法を提案する。
ニューラルネットワークと一致するスコアをデノナイズすることで推定できる機能的勾配流は,強い理論的収束保証を示す。
さらに,サンプリング中の適切な雑音の大きさを自動的に選択する適応バージョンを提案する。
論文 参考訳(メタデータ) (2024-10-23T15:00:30Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Analyzing Neural Network-Based Generative Diffusion Models through Convex Optimization [45.72323731094864]
本稿では,2層ニューラルネットワークを用いた拡散モデル解析のための理論的枠組みを提案する。
我々は,1つの凸プログラムを解くことで,スコア予測のための浅層ニューラルネットワークのトレーニングが可能であることを証明した。
本結果は, ニューラルネットワークに基づく拡散モデルが漸近的でない環境で何を学習するかを, 正確に評価するものである。
論文 参考訳(メタデータ) (2024-02-03T00:20:25Z) - A Neural Network-Based Enrichment of Reproducing Kernel Approximation
for Modeling Brittle Fracture [0.0]
脆性破壊をモデル化するためのニューラルネットワーク強化再生カーネル粒子法(NN-RKPM)の改良版を提案する。
提案手法の有効性は,損傷伝播と分岐を含む一連の数値例によって実証された。
論文 参考訳(メタデータ) (2023-07-04T21:52:09Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Neural Estimation of Statistical Divergences [24.78742908726579]
ニューラルネットワーク(NN)による経験的変動形態のパラメトリゼーションによる統計的発散推定の一手法
特に、近似と経験的推定という2つのエラー源の間には、根本的なトレードオフがある。
NN成長速度がわずかに異なる神経推定器は、最小値の最適値に近づき、パラメトリック収束率を対数因子まで達成できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:42:44Z) - Asymptotic convergence rate of Dropout on shallow linear neural networks [0.0]
本研究では, 微小線形ニューラルネットワークに適用する場合に, ドロップアウトとドロップコネクションによって誘導される目的関数の収束度を解析する。
我々は、勾配流の局所収束証明と、そのデータ、レート確率、NNの幅に依存する速度のバウンダリを得る。
論文 参考訳(メタデータ) (2020-12-01T19:02:37Z) - Understanding Approximate Fisher Information for Fast Convergence of
Natural Gradient Descent in Wide Neural Networks [13.572168969227011]
自然グラディエント蛍光(NGD)は降下勾配ダイナミクスの収束を加速する。
計算コストが高いため、大規模ディープニューラルネットワークでは近似が必要である。
実験的な研究により、近似的なフィッシャー情報を持つNGD法が実際に十分に高速に収束していることが確認された。
論文 参考訳(メタデータ) (2020-10-02T09:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。