論文の概要: Non-asymptotic convergence bounds for Wasserstein approximation using
point clouds
- arxiv url: http://arxiv.org/abs/2106.07911v1
- Date: Tue, 15 Jun 2021 06:53:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:04:44.392169
- Title: Non-asymptotic convergence bounds for Wasserstein approximation using
point clouds
- Title(参考訳): 点雲を用いたワッサースタイン近似の非漸近収束境界
- Authors: Quentin Merigot (LMO, IUF), Filippo Santambrogio (ICJ, IUF), Cl\'ement
Sarrazin (LMO)
- Abstract要約: モデル確率分布からサンプルしたような離散データを生成する方法を示す。
収束型アルゴリズムに対して明示的な上限を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several issues in machine learning and inverse problems require to generate
discrete data, as if sampled from a model probability distribution. A common
way to do so relies on the construction of a uniform probability distribution
over a set of $N$ points which minimizes the Wasserstein distance to the model
distribution. This minimization problem, where the unknowns are the positions
of the atoms, is non-convex. Yet, in most cases, a suitably adjusted version of
Lloyd's algorithm -- in which Voronoi cells are replaced by Power cells --
leads to configurations with small Wasserstein error. This is surprising
because, again, of the non-convex nature of the problem, as well as the
existence of spurious critical points. We provide explicit upper bounds for the
convergence speed of this Lloyd-type algorithm, starting from a cloud of points
sufficiently far from each other. This already works after one step of the
iteration procedure, and similar bounds can be deduced, for the corresponding
gradient descent. These bounds naturally lead to a modified Poliak-Lojasiewicz
inequality for the Wasserstein distance cost, with an error term depending on
the distances between Dirac masses in the discrete distribution.
- Abstract(参考訳): 機械学習と逆問題におけるいくつかの問題は、モデル確率分布からサンプリングされたような離散データを生成する必要がある。
そのような方法の一般的な方法は、モデル分布へのワッサーシュタイン距離を最小化する$N$点の集合上の一様確率分布の構成に依存する。
未知が原子の位置であるこの最小化問題は非凸である。
しかし、ほとんどの場合、ヴォロノイ細胞をパワーセルに置き換えるロイドのアルゴリズムの適度に調整されたバージョンは、小さなワッサーシュタイン誤差を伴う構成に導かれる。
これは、再び、この問題の凸でない性質と、散発的な臨界点の存在について、驚きである。
我々は、このロイド型アルゴリズムの収束速度について、十分遠く離れた点の雲から明らかな上限を与える。
これはすでにイテレーション手順の1ステップ後に動作し、対応する勾配降下に対して同様の境界を推論できる。
これらの境界は自然に、離散分布におけるディラック質量間の距離に依存する誤差項を持つ、ワッサーシュタイン距離コストに対するポリアク・ロジャシェヴィチの不等式修正につながる。
関連論文リスト
- Properties of Discrete Sliced Wasserstein Losses [11.280151521887076]
Sliced Wasserstein (SW) 距離は、確率測度を比較するために、Wasserstein 距離の代替として人気がある。
広範囲のアプリケーションには画像処理、ドメイン適応、生成モデリングが含まれており、SWを最小化するためにパラメータを最適化することが一般的である。
このエネルギーの正則性と最適化特性、およびモンテカルロ近似 $mathcalE_p$ について検討する。
論文 参考訳(メタデータ) (2023-07-19T21:21:18Z) - Complexity of Block Coordinate Descent with Proximal Regularization and
Applications to Wasserstein CP-dictionary Learning [1.4010916616909743]
正規化(BCD-PR)によるGauss-Sdel型ブロック座標の導出について検討する。
W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W(W) W) W(W) W(W) W) W(W) W(W) W) W(W) W(W) W(W)
論文 参考訳(メタデータ) (2023-06-04T17:52:49Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Near-optimal estimation of smooth transport maps with kernel
sums-of-squares [81.02564078640275]
滑らかな条件下では、2つの分布の間の正方形ワッサーシュタイン距離は、魅力的な統計的誤差上界で効率的に計算できる。
生成的モデリングのような応用への関心の対象は、基礎となる最適輸送写像である。
そこで本研究では,地図上の統計的誤差であるL2$が,既存のミニマックス下限値とほぼ一致し,スムーズな地図推定が可能となる最初のトラクタブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-03T13:45:36Z) - Understanding Entropic Regularization in GANs [5.448283690603358]
We study the influence of regularization on the learned solution of Wasserstein distance。
エントロピー正則化は解のスパース化を促進するが、ワッサーシュタイン距離をシンクホルン発散に置き換えると、非正規化解が回復する。
これらの正則化手法は,大規模な分布に対して経験的データから学習したジェネレータの品質を向上させることができると結論付けている。
論文 参考訳(メタデータ) (2021-11-02T06:08:16Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z) - Stochastic Saddle-Point Optimization for Wasserstein Barycenters [69.68068088508505]
オンラインデータストリームによって生成される有限個の点からなるランダムな確率測度に対する人口推定バリセンタ問題を考察する。
本稿では,この問題の構造を用いて,凸凹型サドル点再構成を行う。
ランダム確率測度の分布が離散的な場合、最適化アルゴリズムを提案し、その複雑性を推定する。
論文 参考訳(メタデータ) (2020-06-11T19:40:38Z) - The Wasserstein Proximal Gradient Algorithm [23.143814848127295]
ワッサーシュタイン勾配流は、確率測度の空間上の目的関数を最小化するために最も急勾配の曲線を定義する連続時間力学である。
目的関数が滑らかで非滑らかな空間的凸項の和である場合に対処できるフォワードバックワード(FB)離散化スキームを提案する。
論文 参考訳(メタデータ) (2020-02-07T22:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。