論文の概要: Efficient Distribution Learning with Error Bounds in Wasserstein Distance
- arxiv url: http://arxiv.org/abs/2602.08063v1
- Date: Sun, 08 Feb 2026 17:14:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.963309
- Title: Efficient Distribution Learning with Error Bounds in Wasserstein Distance
- Title(参考訳): ワッサーシュタイン距離における誤差境界を用いた効率的な分布学習
- Authors: Eduardo Figueiredo, Steven Adams, Luca Laurenti,
- Abstract要約: ワッサーシュタイン距離は確率分布間の距離を定量化するための重要な指標として登場した。
有限個のサンプル集合から未知の確率分布$mathbbP$を近似する新しいフレームワークを考案する。
- 参考スコア(独自算出の注目度): 5.3077298055859545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Wasserstein distance has emerged as a key metric to quantify distances between probability distributions, with applications in various fields, including machine learning, control theory, decision theory, and biological systems. Consequently, learning an unknown distribution with non-asymptotic and easy-to-compute error bounds in Wasserstein distance has become a fundamental problem in many fields. In this paper, we devise a novel algorithmic and theoretical framework to approximate an unknown probability distribution $\mathbb{P}$ from a finite set of samples by an approximate discrete distribution $\widehat{\mathbb{P}}$ while bounding the Wasserstein distance between $\mathbb{P}$ and $\widehat{\mathbb{P}}$. Our framework leverages optimal transport, nonlinear optimization, and concentration inequalities. In particular, we show that, even if $\mathbb{P}$ is unknown, the Wasserstein distance between $\mathbb{P}$ and $\widehat{\mathbb{P}}$ can be efficiently bounded with high confidence by solving a tractable optimization problem (a mixed integer linear program) of a size that only depends on the size of the support of $\widehat{\mathbb{P}}$. This enables us to develop intelligent clustering algorithms to optimally find the support of $\widehat{\mathbb{P}}$ while minimizing the Wasserstein distance error. On a set of benchmarks, we demonstrate that our approach outperforms state-of-the-art comparable methods by generally returning approximating distributions with substantially smaller support and tighter error bounds.
- Abstract(参考訳): ワッサーシュタイン距離は確率分布間の距離を定量化するための重要な指標として現れており、機械学習、制御理論、決定理論、生物学的システムなど様々な分野に応用されている。
したがって、ワッサーシュタイン距離における非漸近的かつ容易に計算できる誤差境界を持つ未知の分布を学習することは、多くの分野において根本的な問題となっている。
本稿では、未知の確率分布 $\mathbb{P}$ を近似離散分布 $\widehat{\mathbb{P}}$ で近似し、ワッサーシュタイン距離を $\mathbb{P}$ と $\widehat{\mathbb{P}}$ に制限しながら、未知の確率分布 $\mathbb{P}$ を近似する新しいアルゴリズム的理論的枠組みを考案する。
我々のフレームワークは最適輸送、非線形最適化、濃度不等式を利用する。
特に、$\mathbb{P}$ が未知であっても、$\widehat{\mathbb{P}}$ と $\widehat{\mathbb{P}}$ の間のワッサーシュタイン距離は、$\widehat{\mathbb{P}}$ の支持の大きさにのみ依存する大きさのトラクタブル最適化問題(混合整数線形プログラム)を解くことによって、効率的に高信頼で有界であることが示される。
これにより、インテリジェントクラスタリングアルゴリズムを開発すれば、ワッサーシュタイン距離誤差を最小限に抑えながら、$\widehat{\mathbb{P}}$のサポートを最適に見つけることができる。
一連のベンチマークにおいて、我々の手法は、概してより小さいサポートとより厳密なエラー境界を持つ近似分布を返却することによって、最先端の同等の手法よりも優れていることを示す。
関連論文リスト
- Low-degree lower bounds via almost orthonormal bases [47.83594448785856]
低次数は、様々な高次元統計モデルにまたがる統計的-計算的ギャップの証拠を提供するための強力なパラダイムとして現れてきた。
本研究では,より直接的な証明戦略を提案する。
論文 参考訳(メタデータ) (2025-09-11T11:07:36Z) - Complexity Analysis of Normalizing Constant Estimation: from Jarzynski Equality to Annealed Importance Sampling and beyond [40.79840141270367]
非正規化確率密度 $piproptomathrme-V$ が与えられたとき、正規化定数 $Z=int_mathbbRdmathrme-V(x)mathrmdx$ または自由エネルギー $F=-log Z$ はベイズ統計学、統計力学、機械学習において重要な問題である。
本稿では,逆拡散サンプリングに基づく新しいアルゴリズムを提案し,その複雑さを解析するためのフレームワークを構築し,マルチモーダリティに対処する際の効率を実証的に実証する。
論文 参考訳(メタデータ) (2025-02-07T00:05:28Z) - Relative-Translation Invariant Wasserstein Distance [82.6068808353647]
距離の新しい族、相対翻訳不変ワッサーシュタイン距離(RW_p$)を導入する。
我々は、$RW_p 距離もまた、分布変換に不変な商集合 $mathcalP_p(mathbbRn)/sim$ 上で定義される実距離測度であることを示す。
論文 参考訳(メタデータ) (2024-09-04T03:41:44Z) - Instance-Optimal Private Density Estimation in the Wasserstein Distance [37.58527481568219]
サンプルから分布の密度を推定することは統計学の基本的な問題である。
ワッサーシュタイン距離における個人密度の差分推定について検討する。
論文 参考訳(メタデータ) (2024-06-27T22:51:06Z) - Robust Distribution Learning with Local and Global Adversarial Corruptions [17.22168727622332]
誤差を$sqrtvarepsilon k + rho + tildeO(dsqrtkn-1/(k lor2)$で有界な共分散を持つ場合、効率的な有限サンプルアルゴリズムを開発する。
我々の効率的な手順は、理想的だが難解な2-ワッサーシュタイン射影推定器の新たなトレースノルム近似に依存する。
論文 参考訳(メタデータ) (2024-06-10T17:48:36Z) - Pseudonorm Approachability and Applications to Regret Minimization [73.54127663296906]
我々は、高次元 $ell_infty$-approachability 問題を、低次元の擬ノルムアプローチ可能性問題に変換する。
我々は、$ell$や他のノルムに対するアプローチ可能性に関する以前の研究に類似した疑似ノルムアプローチ可能性のアルゴリズム理論を開発する。
論文 参考訳(メタデータ) (2023-02-03T03:19:14Z) - Robust Estimation under the Wasserstein Distance [27.382258439576606]
$n$のサンプルが与えられたとき、その中の$varepsilon n$は逆向きに破損するので、最小のワッサーシュタイン誤差を持つ$mu$の見積もりを求める。
我々は、POTの新たな構造特性を証明し、それを用いて、部分ワッサーシュタイン距離下のMDEが極小最大最適ロバスト推定リスクを達成することを示す。
一般的なWGAN(Warsserstein Generative Adversarial Network)フレームワークは、カントロビッチ双対性を介してWasserstein MDEを実装しているため、当社のペナル化双対は、汚染されたデータセットによる大規模生成モデリングを可能にする。
論文 参考訳(メタデータ) (2023-02-02T17:20:25Z) - Estimation and inference for the Wasserstein distance between mixing measures in topic models [18.66039789963639]
混合測度間のワッサーシュタイン距離は混合モデルの統計解析において中心的な位置を占めるようになった。
この研究は、この距離の新しい標準解釈を提案し、トピックモデルにおけるワッサーシュタイン距離の推論を行うためのツールを提供する。
論文 参考訳(メタデータ) (2022-06-26T02:33:40Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - A diffusion approach to Stein's method on Riemannian manifolds [65.36007959755302]
我々は、ターゲット不変測度を持つ$mathbf M$上の拡散の生成元と、その特徴付けStein演算子との関係を利用する。
我々は、スタイン方程式とその微分に解を束縛するスタイン因子を導出する。
我々は、$mathbf M$ が平坦多様体であるとき、$mathbb Rm$ の有界が有効であることを暗示する。
論文 参考訳(メタデータ) (2020-03-25T17:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。