論文の概要: Learning High DimensionalWasserstein Geodesics
- arxiv url: http://arxiv.org/abs/2102.02992v1
- Date: Fri, 5 Feb 2021 04:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 13:03:34.234190
- Title: Learning High DimensionalWasserstein Geodesics
- Title(参考訳): 高次元Wasserstein測地学を学ぶ
- Authors: Shu Liu, Shaojun Ma, Yongxin Chen, Hongyuan Zha, Haomin Zhou
- Abstract要約: 高次元の2つの確率分布の間のワッサーシュタイン測地線を計算するための新しい定式化と学習戦略を提案する。
ラグランジュ乗算器の手法を最適輸送(OT)問題の動的定式化に適用することにより、サドル点がワッサーシュタイン測地線であるミニマックス問題を導出する。
次に、深層ニューラルネットワークによる関数のパラメータ化を行い、トレーニングのためのサンプルベースの双方向学習アルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 55.086626708837635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new formulation and learning strategy for computing the
Wasserstein geodesic between two probability distributions in high dimensions.
By applying the method of Lagrange multipliers to the dynamic formulation of
the optimal transport (OT) problem, we derive a minimax problem whose saddle
point is the Wasserstein geodesic. We then parametrize the functions by deep
neural networks and design a sample based bidirectional learning algorithm for
training. The trained networks enable sampling from the Wasserstein geodesic.
As by-products, the algorithm also computes the Wasserstein distance and OT map
between the marginal distributions. We demonstrate the performance of our
algorithms through a series of experiments with both synthetic and realistic
data.
- Abstract(参考訳): 2つの確率分布を高次元で計算するための新しい定式化と学習戦略を提案する。
最適輸送(OT)問題の動的定式化にラグランジュ乗算器の手法を適用することにより、サドル点がWasserstein測地線であるミニマックス問題を導出する。
次に,深層ニューラルネットワークを用いて関数をパラメトリ化し,学習のためのサンプルベース双方向学習アルゴリズムを設計する。
訓練されたネットワークは、Wasserstein測地線からのサンプリングを可能にします。
副生成物として、アルゴリズムはワッサーシュタイン距離と限界分布間のOTマップも計算する。
合成データとリアルデータの両方を用いた一連の実験により、アルゴリズムの性能を実証します。
関連論文リスト
- Sliced Wasserstein with Random-Path Projecting Directions [49.802024788196434]
本稿では,モンテカルロ予想推定のための高速サンプリングを行う最適化自由スライシング分布を提案する。
我々はランダムパススライシング分布(RPSD)とスライスされたワッサースタインの2つの変種、すなわちランダムパススライシングワッサースタイン(RPSW)とIWRPSW(Importance Weighted Random-Path Projection Sliced Wasserstein)を導出する。
論文 参考訳(メタデータ) (2024-01-29T04:59:30Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Optimal Neural Network Approximation of Wasserstein Gradient Direction
via Convex Optimization [43.6961980403682]
ワッサーシュタイン勾配方向の計算は、後続サンプリング問題や科学計算に不可欠である。
正方形ReLUアクティベーションを持つ2層ネットワーク群において、半定値プログラミング(SDP)緩和を導出する変動問題について検討する。
このSDPは、2層ネットワークを含むより広い関数群におけるワッサーシュタイン勾配の近似と見なすことができる。
論文 参考訳(メタデータ) (2022-05-26T00:51:12Z) - Partial Wasserstein Covering [10.52782170493037]
我々は、大規模なデータセットをエミュレートする目的で、部分的なWassersteinと呼ばれる一般的なタスクについて検討する。
この問題をワッサーシュタイン偏微分を目的関数とする離散最適化問題としてモデル化する。
我々は、シーンデータセットの駆動を含む部分的なワッサースタインの発散の観点から、2つのデータセットを効率的に作成できることを示します。
論文 参考訳(メタデータ) (2021-06-02T01:48:41Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Projection Robust Wasserstein Barycenter [36.97843660480747]
ワッサースタイン・バリセンターの 近似は 次元の呪いのため 数値的に困難です
本稿では,次元の呪いを緩和するプロジェクションロバストなワッサーシュタインバリセンタ(PRWB)を提案する。
論文 参考訳(メタデータ) (2021-02-05T19:23:35Z) - Continuous Wasserstein-2 Barycenter Estimation without Minimax
Optimization [94.18714844247766]
ワッサーシュタイン・バリセンターは、最適輸送に基づく確率測度の重み付き平均の幾何学的概念を提供する。
本稿では,Wasserstein-2 バリセンタのサンプルアクセスを演算するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-02T21:01:13Z) - Two-sample Test using Projected Wasserstein Distance [18.46110328123008]
統計学と機械学習の基本的な問題である2サンプルテストのための予測されたワッサースタイン距離を開発する。
重要な貢献は、投影された確率分布の間のワッサーシュタイン距離を最大化する低次元線型写像を見つけるために最適射影を結合することである。
論文 参考訳(メタデータ) (2020-10-22T18:08:58Z) - Scalable Computations of Wasserstein Barycenter via Input Convex Neural
Networks [15.171726731041055]
ワッサーシュタイン・バリーセンター(Wasserstein Barycenter)は、与えられた確率分布の集合の重み付き平均を表す原理的なアプローチである。
本稿では,Wasserstein Barycentersを機械学習の高次元的応用を目的とした,スケーラブルな新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-08T22:41:18Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。