論文の概要: Statistical Spatially Inhomogeneous Diffusion Inference
- arxiv url: http://arxiv.org/abs/2312.05793v1
- Date: Sun, 10 Dec 2023 06:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:38:59.499044
- Title: Statistical Spatially Inhomogeneous Diffusion Inference
- Title(参考訳): 統計的空間的不均質拡散推論
- Authors: Yinuo Ren, Yiping Lu, Lexing Ying, Grant M. Rotskoff
- Abstract要約: 離散観測値から拡散方程式を推定することは統計的課題である。
本稿では,ドリフト$boldsymbolb$と空間的不均一拡散テンソル$D = SigmaSigmaT$のニューラルネットワークによる推定手法を提案する。
- 参考スコア(独自算出の注目度): 15.167120574781153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring a diffusion equation from discretely-observed measurements is a
statistical challenge of significant importance in a variety of fields, from
single-molecule tracking in biophysical systems to modeling financial
instruments. Assuming that the underlying dynamical process obeys a
$d$-dimensional stochastic differential equation of the form
$$\mathrm{d}\boldsymbol{x}_t=\boldsymbol{b}(\boldsymbol{x}_t)\mathrm{d}
t+\Sigma(\boldsymbol{x}_t)\mathrm{d}\boldsymbol{w}_t,$$ we propose neural
network-based estimators of both the drift $\boldsymbol{b}$ and the
spatially-inhomogeneous diffusion tensor $D = \Sigma\Sigma^{T}$ and provide
statistical convergence guarantees when $\boldsymbol{b}$ and $D$ are
$s$-H\"older continuous. Notably, our bound aligns with the minimax optimal
rate $N^{-\frac{2s}{2s+d}}$ for nonparametric function estimation even in the
presence of correlation within observational data, which necessitates careful
handling when establishing fast-rate generalization bounds. Our theoretical
results are bolstered by numerical experiments demonstrating accurate inference
of spatially-inhomogeneous diffusion tensors.
- Abstract(参考訳): 離散観測から拡散方程式を推定することは、生体物理系の単一分子追跡から金融機器のモデリングに至るまで、様々な分野で重要な課題である。
基礎となる力学過程が$d$-次元確率微分方程式に従えば、$$$\mathrm{d}\boldsymbol{x}_t=\boldsymbol{b}(\boldsymbol{x}_t)\mathrm{d} t+\Sigma(\boldsymbol{x}_t)\mathrm{d}\boldsymbol{w}_t}_t,$$$$ はドリフト $\boldsymbol{b}$ と空間非同次拡散テンソル $D = \Sigma\Sigma^{T} の両方のニューラルネットワークに基づく推定器を提案し、$d\boldsymbol{x}_t} と $D$D$D$-$-D が連続であるときの統計収束を保証する。
特に、観測データ内に相関が存在する場合であっても、非パラメトリック関数推定のために最小値の最適値 $N^{-\frac{2s}{2s+d}}$ と整列する。
この理論結果は,空間的不均質拡散テンソルの正確な推定を示す数値実験によって裏付けられる。
関連論文リスト
- Dimension-free Private Mean Estimation for Anisotropic Distributions [55.86374912608193]
以前の$mathRd上の分布に関する民間推定者は、次元性の呪いに苦しむ。
本稿では,サンプルの複雑さが次元依存性を改善したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T17:59:53Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Transfer Operators from Batches of Unpaired Points via Entropic
Transport Kernels [3.099885205621181]
そこで我々は,最大形推論関数を導出し,計算可能な近似を提案し,それらの特性を解析する。
我々は、ブロック数$N$が無限に近づくと、経験的近似から真の密度を回復できることを示す$Gamma$-convergenceの結果を証明する。
論文 参考訳(メタデータ) (2024-02-13T12:52:41Z) - Nearly $d$-Linear Convergence Bounds for Diffusion Models via Stochastic
Localization [40.808942894229325]
データ次元において線形である第1収束境界を提供する。
拡散モデルは任意の分布を近似するために少なくとも$tilde O(fracd log2(1/delta)varepsilon2)$ stepsを必要とすることを示す。
論文 参考訳(メタデータ) (2023-08-07T16:01:14Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - High-Dimensional Smoothed Entropy Estimation via Dimensionality
Reduction [14.53979700025531]
微分エントロピー$h(X+Z)$を独立に$n$で推定し、同じ分散サンプルを$X$とする。
絶対誤差損失では、上記の問題はパラメータ推定率$fraccDsqrtn$である。
我々は、エントロピー推定の前に主成分分析(PCA)を通して低次元空間に$X$を投影することで、この指数的なサンプル複雑性を克服する。
論文 参考訳(メタデータ) (2023-05-08T13:51:48Z) - Augmenting astrophysical scaling relations with machine learning :
application to reducing the SZ flux-mass scatter [2.0223261087090303]
We study the Sunyaev-Zeldovich flux$-$cluster mass relation(Y_mathrmSZ-M$)
我々は、Y_mathrmSZ$とイオン化ガスの濃度を組み合わせたクラスター質量の新しいプロキシを求める。
以上の結果から,$c_mathrmgas$への依存は,外部よりも大きな散乱を示すクラスタのコアに関係していることが分かる。
論文 参考訳(メタデータ) (2022-01-04T19:00:01Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。