論文の概要: Outlier-Robust Optimal Transport: Duality, Structure, and Statistical
Applications
- arxiv url: http://arxiv.org/abs/2111.01361v1
- Date: Tue, 2 Nov 2021 04:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 12:48:09.979857
- Title: Outlier-Robust Optimal Transport: Duality, Structure, and Statistical
Applications
- Title(参考訳): 外乱最適輸送 : 双対性, 構造, 統計的応用
- Authors: Sloan Nietert, Rachel Cummings, Ziv Goldfeld
- Abstract要約: ワッサーシュタイン距離は、考慮された分布における外れ値に敏感である。
本稿では, 汚染された各分布から, $varepsilon$outlier mass を除去できる新しいoutlier-robust Wasserstein distance $mathsfW_pvarepsilon$を提案する。
- 参考スコア(独自算出の注目度): 25.410110072480187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Wasserstein distance, rooted in optimal transport (OT) theory, is a
popular discrepancy measure between probability distributions with various
applications to statistics and machine learning. Despite their rich structure
and demonstrated utility, Wasserstein distances are sensitive to outliers in
the considered distributions, which hinders applicability in practice. Inspired
by the Huber contamination model, we propose a new outlier-robust Wasserstein
distance $\mathsf{W}_p^\varepsilon$ which allows for $\varepsilon$ outlier mass
to be removed from each contaminated distribution. Our formulation amounts to a
highly regular optimization problem that lends itself better for analysis
compared to previously considered frameworks. Leveraging this, we conduct a
thorough theoretical study of $\mathsf{W}_p^\varepsilon$, encompassing
characterization of optimal perturbations, regularity, duality, and statistical
estimation and robustness results. In particular, by decoupling the
optimization variables, we arrive at a simple dual form for
$\mathsf{W}_p^\varepsilon$ that can be implemented via an elementary
modification to standard, duality-based OT solvers. We illustrate the benefits
of our framework via applications to generative modeling with contaminated
datasets.
- Abstract(参考訳): ワッサーシュタイン距離は最適輸送(OT)理論に根ざしたもので、確率分布と統計学や機械学習への様々な応用の相違点として人気がある。
リッチな構造と実用性を示したにもかかわらず、ワッサーシュタイン距離は検討された分布の外れ値に敏感であり、実際には適用性を妨げる。
ハマー汚染モデルにインスパイアされ、汚染された各分布から$\varepsilon$outlier massを除去できる新しいoutlier-robust Wasserstein distance $\mathsf{W}_p^\varepsilon$を提案する。
我々の定式化は、以前検討されたフレームワークと比較して分析に有利な非常に定期的な最適化問題である。
これを利用して, 最適摂動, 正則性, 双対性, 統計的推定とロバスト性結果のキャラクタリゼーションを包含して, $\mathsf{w}_p^\varepsilon$ の詳細な理論的研究を行った。
特に、最適化変数をデカップリングすることで、標準的な双対性に基づくOTソルバの基本的な修正によって実装できる$\mathsf{W}_p^\varepsilon$の単純な双対形式に到達する。
汚染されたデータセットを用いた生成モデリングへの応用を通して、我々のフレームワークの利点を説明する。
関連論文リスト
- A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Distribution learning via neural differential equations: a nonparametric
statistical perspective [1.4436965372953483]
この研究は、確率変換によって訓練されたODEモデルによる分布学習のための最初の一般統計収束解析を確立する。
後者はクラス $mathcal F$ の$C1$-metric entropy で定量化できることを示す。
次に、この一般フレームワークを$Ck$-smoothターゲット密度の設定に適用し、関連する2つの速度場クラスに対する最小最適収束率を$mathcal F$:$Ck$関数とニューラルネットワークに設定する。
論文 参考訳(メタデータ) (2023-09-03T00:21:37Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Robust Estimation under the Wasserstein Distance [27.382258439576606]
$n$のサンプルが与えられたとき、その中の$varepsilon n$は逆向きに破損するので、最小のワッサーシュタイン誤差を持つ$mu$の見積もりを求める。
我々は、POTの新たな構造特性を証明し、それを用いて、部分ワッサーシュタイン距離下のMDEが極小最大最適ロバスト推定リスクを達成することを示す。
一般的なWGAN(Warsserstein Generative Adversarial Network)フレームワークは、カントロビッチ双対性を介してWasserstein MDEを実装しているため、当社のペナル化双対は、汚染されたデータセットによる大規模生成モデリングを可能にする。
論文 参考訳(メタデータ) (2023-02-02T17:20:25Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - Wasserstein Distributional Learning [5.830831796910439]
Wasserstein Distributional Learning (WDL)はフレキシブルな密度オンスカラー回帰モデリングフレームワークである。
WDLは, 条件密度の非線形依存性をよりよく特徴付け, 明らかにする。
シミュレーションと実世界の応用を通してWDLフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-09-12T02:32:17Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。