論文の概要: Alleviation of Gradient Exploding in GANs: Fake Can Be Real
- arxiv url: http://arxiv.org/abs/1912.12485v2
- Date: Mon, 16 Mar 2020 10:34:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:55:32.945558
- Title: Alleviation of Gradient Exploding in GANs: Fake Can Be Real
- Title(参考訳): GANのグラディエント爆発の緩和:フェイクは本物かもしれない
- Authors: Song Tao, Jia Wang
- Abstract要約: 本稿では,学習過程において,特定の偽サンプルを実物とみなす新しいGANの訓練手法を提案する。
この戦略は、勾配が爆発する領域でジェネレータが受ける勾配値を減らすことができる。
本研究では,非バランスな世代と,実践訓練における勾配爆発による悪循環問題について述べる。
- 参考スコア(独自算出の注目度): 6.82691339794332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to alleviate the notorious mode collapse phenomenon in generative
adversarial networks (GANs), we propose a novel training method of GANs in
which certain fake samples are considered as real ones during the training
process. This strategy can reduce the gradient value that generator receives in
the region where gradient exploding happens. We show the process of an
unbalanced generation and a vicious circle issue resulted from gradient
exploding in practical training, which explains the instability of GANs. We
also theoretically prove that gradient exploding can be alleviated by
penalizing the difference between discriminator outputs and fake-as-real
consideration for very close real and fake samples. Accordingly, Fake-As-Real
GAN (FARGAN) is proposed with a more stable training process and a more
faithful generated distribution. Experiments on different datasets verify our
theoretical analysis.
- Abstract(参考訳): 本稿では,gans(generative adversarial network)における悪名高いモード崩壊現象を緩和するために,特定の偽サンプルを実際のガンとして扱う新しいganの訓練手法を提案する。
この戦略は、勾配爆発が起こる領域でジェネレータが受け取る勾配値を減らすことができる。
我々は,gansの不安定性を説明する実践訓練における勾配爆発による不均衡生成過程と悪質な円問題を示す。
また,非常に近い実・偽のサンプルに対して,識別器出力と偽・偽・実の考察の違いをペナルティ化することにより,勾配爆発を緩和できることを示す。
したがって、FARGAN(Fake-As-Real GAN)はより安定したトレーニングプロセスとより忠実に生成された分布によって提案される。
異なるデータセット上での実験は、理論分析を検証する。
関連論文リスト
- Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - MonoFlow: Rethinking Divergence GANs via the Perspective of Wasserstein
Gradient Flows [34.795115757545915]
統合された生成モデリングフレームワーク、MonoFlowを紹介します。
私たちのフレームワークでは、まずMonoFlowのベクトルフィールドを取得する手順として、逆トレーニングを見ることができる。
また,変動発散最小化と逆行訓練の基本的な相違も明らかにした。
論文 参考訳(メタデータ) (2023-02-02T13:05:27Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。