論文の概要: A Differential Equation Approach for Wasserstein GANs and Beyond
- arxiv url: http://arxiv.org/abs/2405.16351v2
- Date: Tue, 04 Feb 2025 16:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:55:41.227010
- Title: A Differential Equation Approach for Wasserstein GANs and Beyond
- Title(参考訳): ワッサーシュタイン GAN の微分方程式による解法
- Authors: Zachariah Malik, Yu-Jui Huang,
- Abstract要約: 本稿では、WGAN(Warsserstein Generative Adversarial Network)を視認するための新しい理論レンズを提案する。
真のデータ分布と推定値の間のワッサーシュタイン-1距離を最小化するために、分布依存常微分方程式(ODE)を導出する。
これにより、永続的なトレーニング(W1-FEと呼ぶ)を自然に統合する新しい生成モデルが生まれました。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License:
- Abstract: This paper proposes a new theoretical lens to view Wasserstein generative adversarial networks (WGANs). To minimize the Wasserstein-1 distance between the true data distribution and our estimate of it, we derive a distribution-dependent ordinary differential equation (ODE) which represents the gradient flow of the Wasserstein-1 loss, and show that a forward Euler discretization of the ODE converges. This inspires a new class of generative models that naturally integrates persistent training (which we call W1-FE). When persistent training is turned off, we prove that W1-FE reduces to WGAN. When we intensify persistent training, W1-FE is shown to outperform WGAN in training experiments from low to high dimensions, in terms of both convergence speed and training results. Intriguingly, one can reap the benefits only when persistent training is carefully integrated through our ODE perspective. As demonstrated numerically, a naive inclusion of persistent training in WGAN (without relying on our ODE framework) can significantly worsen training results.
- Abstract(参考訳): 本稿では,WGAN(Warsserstein Generative Adversarial Network)を視認する理論レンズを提案する。
真のデータ分布と推定値の間のワッサーシュタイン-1距離を最小化するために、ワッサースタイン-1損失の勾配流を表す分布依存常微分方程式(ODE)を導出し、ODEの前方オイラー離散化が収束することを示す。
これによって、永続的なトレーニング(W1-FEと呼ぶ)を自然に統合する、新たな生成モデルのクラスが生まれました。
持続トレーニングをオフにすると、W1-FEがWGANに還元されることが証明される。
持続的トレーニングを強化すると、W1-FEは、収束速度とトレーニング結果の両方の観点から、低次元から高次元のトレーニング実験において、WGANよりも優れていることが示される。
興味深いことに、永続的なトレーニングがODEの視点で注意深く統合されている場合にのみ、メリットを享受できます。
数値的に示すように、(私たちのODEフレームワークに頼らずに)WGANに持続的なトレーニングを組み込むことで、トレーニング結果が大幅に悪化する可能性がある。
関連論文リスト
- Parallelly Tempered Generative Adversarial Networks [7.94957965474334]
生成的敵対ネットワーク(GAN)は、生成的人工知能(AI)における代表的バックボーンモデルである。
本研究は,モード崩壊の存在下でのトレーニングの不安定性と非効率性を,対象分布におけるマルチモーダルにリンクすることで解析する。
新たに開発したGAN目標関数により, 生成元は同時に全ての誘電分布を学習することができる。
論文 参考訳(メタデータ) (2024-11-18T18:01:13Z) - 2-Rectifications are Enough for Straight Flows: A Theoretical Insight into Wasserstein Convergence [54.580605276017096]
本稿では, 凝固流のサンプリング分布とターゲット分布とのワッサーシュタイン距離に関する最初の理論的解析を行った。
ガウス流から有限の第一モーメントを持つ任意の一般目標分布への整流の場合、直流を達成するのに2つの整流が十分であることを示す。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Generative Modeling by Minimizing the Wasserstein-2 Loss [1.2277343096128712]
本稿では,分布依存常微分方程式(ODE)を用いて2次ワッサーシュタイン損失($W$損失)を最小化することにより,教師なし学習問題にアプローチする。
主要な結果から、ODE の時空間法則は、$W$損失に対して勾配流を形成し、真のデータ分布に指数関数的に収束することを示す。
アルゴリズムはスキームに従い、永続的なトレーニングを適用することで設計されます。
論文 参考訳(メタデータ) (2024-06-19T15:15:00Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - MonoFlow: Rethinking Divergence GANs via the Perspective of Wasserstein
Gradient Flows [34.795115757545915]
統合された生成モデリングフレームワーク、MonoFlowを紹介します。
私たちのフレームワークでは、まずMonoFlowのベクトルフィールドを取得する手順として、逆トレーニングを見ることができる。
また,変動発散最小化と逆行訓練の基本的な相違も明らかにした。
論文 参考訳(メタデータ) (2023-02-02T13:05:27Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - Cumulant GAN [17.4556035872983]
GAN(Generative Adversarial Networks)を学習するための新しい損失関数を提案する。
対応する最適化問題は R'enyi divergence minimization と同値であることを示す。
我々は,画像生成がWasserstein GANに対してより堅牢であることを実験的に実証した。
論文 参考訳(メタデータ) (2020-06-11T17:23:02Z) - Nested-Wasserstein Self-Imitation Learning for Sequence Generation [158.19606942252284]
分布意味マッチングのためのネスト・ワッサーシュタイン距離の概念を提案する。
ネストされたワッサーシュタインの自己想像学習フレームワークを開発し、歴史ある高次列を利用するようモデルに奨励する。
論文 参考訳(メタデータ) (2020-01-20T02:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。