論文の概要: A New Robust Partial $p$-Wasserstein-Based Metric for Comparing Distributions
- arxiv url: http://arxiv.org/abs/2405.03664v1
- Date: Mon, 6 May 2024 17:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 12:57:40.728205
- Title: A New Robust Partial $p$-Wasserstein-Based Metric for Comparing Distributions
- Title(参考訳): 分布比較のための新しいロバスト部分$p$-Wasserstein-based Metric
- Authors: Sharath Raghvendra, Pouyan Shirzadian, Kaiyi Zhang,
- Abstract要約: 我々は,約2ドルのワッサーシュタイン距離の計算に基づく,$k$-RPWと呼ばれる,$k ge 0$でパラメータ化された新しい距離の族を導入する。
我々の距離関数は、1ドルのWasserstein、2ドルのWasserstein、およびノイズの多い実世界のデータセット上の画像検索タスクのTV距離と比較して精度が高い。
- 参考スコア(独自算出の注目度): 8.176521989807748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The $2$-Wasserstein distance is sensitive to minor geometric differences between distributions, making it a very powerful dissimilarity metric. However, due to this sensitivity, a small outlier mass can also cause a significant increase in the $2$-Wasserstein distance between two similar distributions. Similarly, sampling discrepancy can cause the empirical $2$-Wasserstein distance on $n$ samples in $\mathbb{R}^2$ to converge to the true distance at a rate of $n^{-1/4}$, which is significantly slower than the rate of $n^{-1/2}$ for $1$-Wasserstein distance. We introduce a new family of distances parameterized by $k \ge 0$, called $k$-RPW, that is based on computing the partial $2$-Wasserstein distance. We show that (1) $k$-RPW satisfies the metric properties, (2) $k$-RPW is robust to small outlier mass while retaining the sensitivity of $2$-Wasserstein distance to minor geometric differences, and (3) when $k$ is a constant, $k$-RPW distance between empirical distributions on $n$ samples in $\mathbb{R}^2$ converges to the true distance at a rate of $n^{-1/3}$, which is faster than the convergence rate of $n^{-1/4}$ for the $2$-Wasserstein distance. Using the partial $p$-Wasserstein distance, we extend our distance to any $p \in [1,\infty]$. By setting parameters $k$ or $p$ appropriately, we can reduce our distance to the total variation, $p$-Wasserstein, and the L\'evy-Prokhorov distances. Experiments show that our distance function achieves higher accuracy in comparison to the $1$-Wasserstein, $2$-Wasserstein, and TV distances for image retrieval tasks on noisy real-world data sets.
- Abstract(参考訳): 2ドルのワッサーシュタイン距離は、分布間の微妙な幾何学的差異に敏感であり、非常に強力な相似性計量である。
しかし、この感度のため、小さな外れ値の質量は、2つの類似した分布の間の2ドル=ワッサーシュタイン距離を著しく増加させる。
同様に、サンプリング誤差は、$\mathbb{R}^2$の$n$のサンプルに対して2ドル=ワッサーシュタイン距離を$n^{-1/4}$のレートで真の距離に収束させる。
我々は,部分的な2ドルワッサーシュタイン距離の計算に基づいて,$k$-RPWと呼ばれる$k \ge 0$でパラメータ化された新しい距離の族を導入する。
1)$k$-RPW が計量特性を満たすこと、(2)$k$-RPW が小さな外れ値質量に対して頑健であること、(3)$k$ が定数であるとき、$k$-RPW は$\mathbb{R}^2$ のサンプル上の経験的分布の間の距離が$n^{-1/3}$ の速度で真の距離に収束することを示し、これは$n^{-1/4} の収束速度よりも速い。
部分的な$p$-ワッサーシュタイン距離を用いて、我々の距離を任意の$p \in [1,\infty]$に拡張する。
パラメータ $k$ または $p$ を適切に設定することで、総変量、$p$-ワッサーシュタイン、L'evy-Prokhorov 距離までの距離を減らすことができる。
実験により,ノイズの多い実世界のデータセットにおける画像検索タスクにおいて,1ドル=ワッサースタイン,2ドル=ワッサースタイン,TV距離と比較して高い精度が得られることが示された。
関連論文リスト
- Optimal bounds for $\ell_p$ sensitivity sampling via $\ell_2$ augmentation [56.403488578703865]
我々は$ell$ Sensitivities を $ell$ Sensitivities で拡張することにより、最適な線形 $tilde O(varepsilon-2mu2 d)$ サンプリング複雑性のより良い境界が得られることを示した。
また、ロジスティック回帰のために、$tilde O(varepsilon-2mu2 d)$ sensitivity sample bound を得る。
論文 参考訳(メタデータ) (2024-06-01T07:03:40Z) - $\ell_p$-Regression in the Arbitrary Partition Model of Communication [59.89387020011663]
コーディネータモデルにおける分散$ell_p$-regression問題のランダム化通信複雑性について考察する。
p = 2$、すなわち最小二乗回帰の場合、$tildeTheta(sd2 + sd/epsilon)$ bitsの最初の最適境界を与える。
p in (1,2)$ に対して、$tildeO(sd2/epsilon + sd/mathrmpoly(epsilon)$ upper bound を得る。
論文 参考訳(メタデータ) (2023-07-11T08:51:53Z) - Beyond Moments: Robustly Learning Affine Transformations with
Asymptotically Optimal Error [8.615625517708324]
サンプルから標準ハイパーキューブの未知アフィン変換を学習するためのリアルタイムアルゴリズムを提案する。
本アルゴリズムは,証明書の要求が満たされない場合に,未知アフィン変換の推定を反復的に改善する手法に基づいている。
論文 参考訳(メタデータ) (2023-02-23T19:13:30Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - The Sketched Wasserstein Distance for mixture distributions [13.643197515573029]
スケッチド・ワッサースタイン距離(英: Sketched Wasserstein Distance)(WS$)は、有限混合分布に特化された新しい確率距離である。
我々は、$WS$が、$mathcalS = textrmconv(mathcalA)$ の要素の混合の空間に最も区別できるものとして定義されることを示す。
論文 参考訳(メタデータ) (2022-06-26T02:33:40Z) - The quantum low-rank approximation problem [0.0]
我々は、正規化された2つの量子状態、$rho$と$sigma$の間の距離$D(rho,sigma)$を考える。
この距離を最小化する最適状態 $sigma$ を解析的に解く。
論文 参考訳(メタデータ) (2022-03-02T01:05:01Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - Sampling from Log-Concave Distributions with Infinity-Distance
Guarantees and Applications to Differentially Private Optimization [33.38289436686841]
本稿では,dis distributionO(varepsilon)$close から$ infinity-distance に点を出力するアルゴリズムを提案する。
また、ディキンウォークの「ソフトパイ」バージョンも提示する。
論文 参考訳(メタデータ) (2021-11-07T13:44:50Z) - How many moments does MMD compare? [7.919213739992465]
MathcalF-1$は、$K$に関連付けられた積分作用素と同じ方法で滑らかな関数に作用する。
擬微分作用素によって定義されるカーネルは、コンパクト集合上の任意の連続マーサー核を均一に近似することができることを示す。
論文 参考訳(メタデータ) (2021-06-27T16:44:17Z) - Analysis of KNN Density Estimation [56.29748742084386]
kNN密度推定は、サポートセットが知られている場合、$ell_infty$と$ell_infty$の条件の両方で最小限最適である。
$ell_infty$エラーはミニマックス下限に到達しないが、カーネル密度推定よりは優れている。
論文 参考訳(メタデータ) (2020-09-30T03:33:17Z) - Few-Shot Learning via Learning the Representation, Provably [115.7367053639605]
本稿では,表現学習による少数ショット学習について検討する。
1つのタスクは、ターゲットタスクのサンプルの複雑さを減らすために、$T$ソースタスクと$n_1$データを使用して表現を学習する。
論文 参考訳(メタデータ) (2020-02-21T17:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。