論文の概要: Max-Sliced Wasserstein Distance and its use for GANs
- arxiv url: http://arxiv.org/abs/1904.05877v2
- Date: Tue, 30 Sep 2025 00:25:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-05 15:39:49.497638
- Title: Max-Sliced Wasserstein Distance and its use for GANs
- Title(参考訳): 最大スライスワッサースタイン距離とGANへの応用
- Authors: Ishan Deshpande, Yuan-Ting Hu, Ruoyu Sun, Ayis Pyrros, Nasir Siddiqui, Sanmi Koyejo, Zhizhen Zhao, David Forsyth, Alexander Schwing,
- Abstract要約: GAN(Generative Adversarial Nets)と変分自動エンコーダは,我々の分散モデリング機能を大幅に改善した。
距離測定値のサンプルの複雑さは, GANトレーニングに影響を与える要因の1つとして残されている。
提案手法は,高次元画像から256x256までのGANを簡易に訓練するものである。
- 参考スコア(独自算出の注目度): 55.09958914575673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial nets (GANs) and variational auto-encoders have significantly improved our distribution modeling capabilities, showing promise for dataset augmentation, image-to-image translation and feature learning. However, to model high-dimensional distributions, sequential training and stacked architectures are common, increasing the number of tunable hyper-parameters as well as the training time. Nonetheless, the sample complexity of the distance metrics remains one of the factors affecting GAN training. We first show that the recently proposed sliced Wasserstein distance has compelling sample complexity properties when compared to the Wasserstein distance. To further improve the sliced Wasserstein distance we then analyze its `projection complexity' and develop the max-sliced Wasserstein distance which enjoys compelling sample complexity while reducing projection complexity, albeit necessitating a max estimation. We finally illustrate that the proposed distance trains GANs on high-dimensional images up to a resolution of 256x256 easily.
- Abstract(参考訳): GAN(Generative Adversarial Nets)と変分自動エンコーダは、データセット拡張、画像から画像への変換、特徴学習など、我々の分散モデリング機能を大幅に改善した。
しかし、高次元分布をモデル化するためには、逐次トレーニングと積み重ねアーキテクチャが一般的であり、チューニング可能なハイパーパラメータの数とトレーニング時間を増加させる。
それでも、距離測定のサンプルの複雑さは、GANトレーニングに影響を与える要因の1つとして残っています。
我々は、最近提案されたスライスされたワッサーシュタイン距離が、ワッサースタイン距離と比較して魅力的なサンプル複雑性特性を持つことを示した。
さらに、スライスされたワッサーシュタイン距離を改善するために、その「射影複雑性」を分析し、最大推定を必要とせず、射影複雑性を減らしながら魅力的なサンプル複雑性を享受する最大スライスされたワッサーシュタイン距離を開発する。
提案手法は,高次元画像から256×256の解像度まで容易にGANを訓練する。
関連論文リスト
- Fast Estimation of Wasserstein Distances via Regression on Sliced Wasserstein Distances [70.94157767200342]
本稿では,スライスされたワッサーシュタイン距離の回帰に基づく高速推定法を提案する。
少数の分布対から正確なモデルを学習できることが示される。
我々の手法は、最先端のワッサーシュタイン埋め込みモデルであるワッサーシュタインワームホールよりも、ワッサーシュタイン距離の近似が常に優れている。
論文 参考訳(メタデータ) (2025-09-24T19:30:53Z) - Adversarial network training using higher-order moments in a modified
Wasserstein distance [0.0]
GAN(Generative-Adversarial Network)は、圧縮された潜在空間におけるサンプルデータによく似たデータを生成するために用いられる。
ワッサーシュタイン計量は二項交叉エントロピーの代替として使われ、より数値的に安定なGANを生成する。
論文 参考訳(メタデータ) (2022-10-07T06:56:44Z) - Hierarchical Sliced Wasserstein Distance [27.12983497199479]
スライスされたワッサースタイン(SW)距離は、次元の呪いに悩まされることなく、多数のサポーターにスケールすることができる。
サポート数の効率性にもかかわらず、スライスされたワッサーシュタインを推定するには、高次元の設定において比較的多くの投影が必要である。
ボトルネック投影と呼ばれる少数の投影を線形かつランダムに組み合わせて投影を導出することを提案する。
次に、階層スライクド・ワッサースタイン距離(HSW)と呼ばれる測度間の新しい測度へのアプローチを定式化する。
論文 参考訳(メタデータ) (2022-09-27T17:46:15Z) - Learning High Dimensional Wasserstein Geodesics [55.086626708837635]
高次元の2つの確率分布の間のワッサーシュタイン測地線を計算するための新しい定式化と学習戦略を提案する。
ラグランジュ乗算器の手法を最適輸送(OT)問題の動的定式化に適用することにより、サドル点がワッサーシュタイン測地線であるミニマックス問題を導出する。
次に、深層ニューラルネットワークによる関数のパラメータ化を行い、トレーニングのためのサンプルベースの双方向学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-02-05T04:25:28Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z) - Augmented Sliced Wasserstein Distances [55.028065567756066]
拡張スライスされたワッサーシュタイン距離(ASWD)と呼ばれる新しい距離測定法を提案する。
ASWDは、ニューラルネットワークによってパラメータ化された高次元超曲面への最初のマッピングサンプルによって構成される。
数値的な結果から、ASWDは、合成問題と実世界の問題の両方において、他のワッサーシュタイン変種を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2020-06-15T23:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。