論文の概要: Stability Analysis Framework for Particle-based Distance GANs with
Wasserstein Gradient Flow
- arxiv url: http://arxiv.org/abs/2307.01879v2
- Date: Fri, 7 Jul 2023 05:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 14:35:16.378330
- Title: Stability Analysis Framework for Particle-based Distance GANs with
Wasserstein Gradient Flow
- Title(参考訳): ワッサースタイン勾配流を有する粒子系距離GANの安定性解析フレームワーク
- Authors: Chuqi Chen, Yue Wu, Yang Xiang
- Abstract要約: 粒子ベース距離と呼ばれる確率密度距離を目的関数として用いた生成ネットワークの学習過程について検討する。
GANの$min_G max_D E(G, D)$の定式化により、判別器のトレーニングプロセスは通常不安定である。
- 参考スコア(独自算出の注目度): 14.783344918500813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the training process of generative networks
that use a type of probability density distance named particle-based distance
as the objective function, e.g. MMD GAN, Cram\'er GAN, EIEG GAN. However, these
GANs often suffer from the problem of unstable training. In this paper, we
analyze the stability of the training process of these GANs from the
perspective of probability density dynamics. In our framework, we regard the
discriminator $D$ in these GANs as a feature transformation mapping that maps
high dimensional data into a feature space, while the generator $G$ maps random
variables to samples that resemble real data in terms of feature space. This
perspective enables us to perform stability analysis for the training of GANs
using the Wasserstein gradient flow of the probability density function. We
find that the training process of the discriminator is usually unstable due to
the formulation of $\min_G \max_D E(G, D)$ in GANs. To address this issue, we
add a stabilizing term in the discriminator loss function. We conduct
experiments to validate our stability analysis and stabilizing method.
- Abstract(参考訳): 本稿では, MMD GAN, Cram\er GAN, EIEG GAN などの目的関数として, 粒子ベース距離と呼ばれる確率密度距離を用いた生成ネットワークの学習過程について検討する。
しかし、これらのガンはしばしば不安定な訓練の問題に苦しむ。
本稿では,これらのGANの学習過程の安定性を,確率密度力学の観点から解析する。
本フレームワークでは,高次元データを特徴空間にマッピングする特徴変換写像として,識別器$D$を,ジェネレータ$G$は特徴空間の観点から実データに似たサンプルにランダム変数をマッピングする。
この観点からは,確率密度関数のwasserstein勾配流を用いてgansトレーニングの安定性解析を行うことができる。
GANの$\min_G \max_D E(G, D)$の定式化により、判別器のトレーニングプロセスは通常不安定である。
この問題に対処するため、判別器損失関数に安定化項を追加する。
安定解析と安定化法を検証する実験を行った。
関連論文リスト
- Anomaly Detection with Variance Stabilized Density Estimation [49.46356430493534]
本稿では, 観測試料の確率を最大化するための分散安定化密度推定問題を提案する。
信頼性の高い異常検知器を得るために,分散安定化分布を学習するための自己回帰モデルのスペクトルアンサンブルを導入する。
我々は52のデータセットで広範なベンチマークを行い、我々の手法が最先端の結果につながることを示した。
論文 参考訳(メタデータ) (2023-06-01T11:52:58Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Stability of the scattering transform for deformations with minimal
regularity [0.0]
散乱構造とH"older regularity scale $Calpha$, $alpha > 0$における変形の規則性との関係について検討する。
安定性閾値を正確に特定することができ、クラス$Calpha$, $alpha>1$の変形に対して安定性がまだ達成可能であることを証明できる。
論文 参考訳(メタデータ) (2022-05-23T09:08:21Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Kernel Stein Discrepancy Descent [16.47373844775953]
Kernel Stein Discrepancy (KSD) は近年注目されている。
我々は、目標確率分布を$mathbbRd$上で近似するために、ワッサーシュタイン勾配流の特性について検討する。
これにより、直接実装可能な決定論的スコアベースのメソッドが、$pi$、KSD Descentからサンプリングされる。
論文 参考訳(メタデータ) (2021-05-20T19:05:23Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Cumulant GAN [17.4556035872983]
GAN(Generative Adversarial Networks)を学習するための新しい損失関数を提案する。
対応する最適化問題は R'enyi divergence minimization と同値であることを示す。
我々は,画像生成がWasserstein GANに対してより堅牢であることを実験的に実証した。
論文 参考訳(メタデータ) (2020-06-11T17:23:02Z) - Inverse Estimation of Elastic Modulus Using Physics-Informed Generative
Adversarial Networks [0.0]
Agenerative Adversarial Network (GAN) は偏微分方程式(PDE)の形で物理法則を符号化する
本研究では, PI-GANを機械的試験における弾性率推定に適用した。
2つのフィードフォワードディープニューラルネットワークジェネレータは、2次元領域にわたる変形と材料硬さをモデル化するために使用される。
論文 参考訳(メタデータ) (2020-05-20T20:14:10Z) - Stabilizing Training of Generative Adversarial Nets via Langevin Stein
Variational Gradient Descent [11.329376606876101]
我々は,新しい粒子に基づく変分推論(LSVGD)によるGANトレーニングの安定化を提案する。
LSVGDのダイナミクスは暗黙の規則化を持ち、粒子の広がりと多様性を高めることができることを示す。
論文 参考訳(メタデータ) (2020-04-22T11:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。