論文の概要: Limit Distribution Theory for the Smooth 1-Wasserstein Distance with
Applications
- arxiv url: http://arxiv.org/abs/2107.13494v2
- Date: Thu, 29 Jul 2021 13:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 10:56:52.634696
- Title: Limit Distribution Theory for the Smooth 1-Wasserstein Distance with
Applications
- Title(参考訳): 滑らかな1-wasserstein距離の極限分布理論とその応用
- Authors: Ritwik Sadhu and Ziv Goldfeld and Kengo Kato
- Abstract要約: スムーズな1-ワッサーシュタイン距離 (SWD) $W_1sigma$ は経験的近似における次元の呪いを軽減する手段として最近提案された。
この研究は、高次元の極限分布結果を含むSWDの詳細な統計的研究を行う。
- 参考スコア(独自算出の注目度): 18.618590805279187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The smooth 1-Wasserstein distance (SWD) $W_1^\sigma$ was recently proposed as
a means to mitigate the curse of dimensionality in empirical approximation
while preserving the Wasserstein structure. Indeed, SWD exhibits parametric
convergence rates and inherits the metric and topological structure of the
classic Wasserstein distance. Motivated by the above, this work conducts a
thorough statistical study of the SWD, including a high-dimensional limit
distribution result for empirical $W_1^\sigma$, bootstrap consistency,
concentration inequalities, and Berry-Esseen type bounds. The derived
nondegenerate limit stands in sharp contrast with the classic empirical $W_1$,
for which a similar result is known only in the one-dimensional case. We also
explore asymptotics and characterize the limit distribution when the smoothing
parameter $\sigma$ is scaled with $n$, converging to $0$ at a sufficiently slow
rate. The dimensionality of the sampled distribution enters empirical SWD
convergence bounds only through the prefactor (i.e., the constant). We provide
a sharp characterization of this prefactor's dependence on the smoothing
parameter and the intrinsic dimension. This result is then used to derive new
empirical convergence rates for classic $W_1$ in terms of the intrinsic
dimension. As applications of the limit distribution theory, we study
two-sample testing and minimum distance estimation (MDE) under $W_1^\sigma$. We
establish asymptotic validity of SWD testing, while for MDE, we prove
measurability, almost sure convergence, and limit distributions for optimal
estimators and their corresponding $W_1^\sigma$ error. Our results suggest that
the SWD is well suited for high-dimensional statistical learning and inference.
- Abstract(参考訳): 滑らかな 1-wasserstein distance (swd) $w_1^\sigma$ は、ワッサーシュタイン構造を維持しながら経験的近似における次元の呪いを緩和する方法として最近提案されている。
実際、SWDはパラメトリック収束率を示し、古典的なワッサーシュタイン距離の計量と位相構造を継承する。
このように動機づけられた本研究は,経験値$w_1^\sigma$,ブートストラップ一貫性,濃度不等式,ベリー・エスセン型境界に対する高次元の極限分布結果を含む,swdの詳細な統計的研究を行っている。
導出非退化極限は、古典的な経験的 w_1$ と鋭く対照的であり、同様の結果が1次元の場合のみ知られている。
また、スムージングパラメータ$\sigma$が$n$にスケールされ、十分に遅いレートで$0$に収束するときに、漸近性を調べ、極限分布を特徴づける。
サンプル分布の次元性は、事前因子(すなわち定数)を通してのみ経験的なswd収束境界に入る。
我々は,この因子がスムースなパラメータと本質的な次元に依存していることの鋭い特徴を与える。
この結果は、古典的な$W_1$の新しい経験的収束率を本質的な次元で導き出すために用いられる。
極限分布理論の応用として、$W_1^\sigma$の下で二サンプル試験と最小距離推定(MDE)について検討する。
我々はSWDテストの漸近的妥当性を確立し、MDEでは測定可能性、ほぼ確実に収束し、最適推定器と対応する$W_1^\sigma$誤差の分布を制限する。
その結果,SWDは高次元の統計的学習や推論に適していることが示唆された。
関連論文リスト
- Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Gaussian-Smoothed Sliced Probability Divergences [15.123608776470077]
滑らか化とスライシングが計量特性と弱位相を保存することを示す。
また、滑らかなパラメータに関して異なる発散の連続性を含む他の性質も導出する。
論文 参考訳(メタデータ) (2024-04-04T07:55:46Z) - Statistical Efficiency of Distributional Temporal Difference Learning [24.03281329962804]
我々は、分布時間差分学習(CTD)と量子時間差分学習(QTD)の有限サンプル性能を解析する。
$gamma$-discounted infinite-horizon decision process に対して、NTD では $tildeOleft(frac1varepsilon2p (1-gamma)2pright)$ が、高い確率で $varepsilon$-optimal estimator を達成するために必要であることを示す。
我々はヒルベルト空間における新しいフリードマンの不等式を確立し、これは独立な関心事である。
論文 参考訳(メタデータ) (2024-03-09T06:19:53Z) - Estimation of entropy-regularized optimal transport maps between
non-compactly supported measures [15.857723276537248]
本稿では,ガウシアン以下の音源と目標測度の間の2乗ユークリッドコストでエントロピー規則化された最適輸送マップを推定する問題に対処する。
論文 参考訳(メタデータ) (2023-11-20T17:18:21Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - A High-dimensional Convergence Theorem for U-statistics with
Applications to Kernel-based Testing [3.469038201881982]
次数2のU-統計量に対して収束定理を証明し、データ次元$d$はサンプルサイズ$n$でスケールすることができる。
我々はこの理論を、高次元性能の研究が困難である2つのカーネルベースの分散テスト MMD と KSD に適用した。
論文 参考訳(メタデータ) (2023-02-11T12:49:46Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Dimension-agnostic inference using cross U-statistics [33.17951971728784]
本稿では,サンプル分割と自己正規化とともに,既存のテスト統計の変分表現を用いた手法を提案する。
結果の統計学は、縮退したU統計を慎重に修正し、対角ブロックを落とし、対角ブロックを外したままにすると見なすことができる。
論文 参考訳(メタデータ) (2020-11-10T12:21:34Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。