論文の概要: GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue
- arxiv url: http://arxiv.org/abs/2009.11921v1
- Date: Thu, 24 Sep 2020 19:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:40:01.201916
- Title: GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue
- Title(参考訳): 変分エントロピー正規化器を持つGAN:モード崩壊問題の緩和への応用
- Authors: Pirazh Khorramshahi, Hossein Souri, Rama Chellappa, and Soheil Feizi
- Abstract要約: 深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
- 参考スコア(独自算出の注目度): 95.23775347605923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building on the success of deep learning, Generative Adversarial Networks
(GANs) provide a modern approach to learn a probability distribution from
observed samples. GANs are often formulated as a zero-sum game between two sets
of functions; the generator and the discriminator. Although GANs have shown
great potentials in learning complex distributions such as images, they often
suffer from the mode collapse issue where the generator fails to capture all
existing modes of the input distribution. As a consequence, the diversity of
generated samples is lower than that of the observed ones. To tackle this
issue, we take an information-theoretic approach and maximize a variational
lower bound on the entropy of the generated samples to increase their
diversity. We call this approach GANs with Variational Entropy Regularizers
(GAN+VER). Existing remedies for the mode collapse issue in GANs can be easily
coupled with our proposed variational entropy regularization. Through extensive
experimentation on standard benchmark datasets, we show all the existing
evaluation metrics highlighting difference of real and generated samples are
significantly improved with GAN+VER.
- Abstract(参考訳): ディープラーニングの成功に基づいてGAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータと判別器という2つの関数のセットの間のゼロサムゲームとして定式化される。
GANは画像などの複雑な分布を学習する大きな可能性を示しているが、しばしば、ジェネレータが入力分布のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
その結果, 生成標本の多様性は観測試料の多様性よりも低いことがわかった。
この問題に対処するため,我々は情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し,多様性を高める。
我々はこのアプローチを変分エントロピー正規化器 (GAN+VER) を用いた GAN と呼ぶ。
GANのモード崩壊問題に対する既存の対策は、我々の提案した変分エントロピー正規化と容易に結合できる。
標準ベンチマークデータセットの広範な実験を通じて、実データと生成されたサンプルの差がGAN+VERで大幅に改善されていることを示す既存の評価指標をすべて示す。
関連論文リスト
- GLAD: Towards Better Reconstruction with Global and Local Adaptive Diffusion Models for Unsupervised Anomaly Detection [60.78684630040313]
拡散モデルは、特定のノイズを付加したテスト画像の通常の画像を再構成する傾向がある。
世界的視点から見ると、異なる異常による画像再構成の難しさは不均一である。
本稿では,非教師付き異常検出のためのグローバルかつ局所的な適応拡散モデル(GLADと略す)を提案する。
論文 参考訳(メタデータ) (2024-06-11T17:27:23Z) - Invariant Anomaly Detection under Distribution Shifts: A Causal
Perspective [6.845698872290768]
異常検出(AD、Anomaly Detection)は、異常なサンプルを識別する機械学習タスクである。
分散シフトの制約の下では、トレーニングサンプルとテストサンプルが同じ分布から引き出されるという仮定が崩壊する。
我々は,異常検出モデルのレジリエンスを,異なる種類の分布シフトに高めようとしている。
論文 参考訳(メタデータ) (2023-12-21T23:20:47Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - StyleGenes: Discrete and Efficient Latent Distributions for GANs [149.0290830305808]
GAN(Generative Adversarial Networks)のための離散潜在分布を提案する。
連続的な先行点から潜在ベクトルを描く代わりに、学習可能な潜在点の有限集合からサンプリングする。
私たちは生物の情報のエンコーディングからインスピレーションを得ます。
論文 参考訳(メタデータ) (2023-04-30T23:28:46Z) - Normalizing Flow with Variational Latent Representation [20.038183566389794]
正規化フロー(NF)の実用性能を向上させるため,変分潜在表現に基づく新しいフレームワークを提案する。
この考え方は、標準正規潜在変数をより一般的な潜在変数に置き換えることであり、変分ベイズを通して共同で学習される。
得られた手法は,複数のモードでデータ分布を生成する標準的な正規化フローアプローチよりもはるかに強力である。
論文 参考訳(メタデータ) (2022-11-21T16:51:49Z) - Selectively increasing the diversity of GAN-generated samples [8.980453507536017]
本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:06Z) - VARGAN: Variance Enforcing Network Enhanced GAN [0.6445605125467573]
我々は、GAN(VARGAN)を強制する分散と呼ばれる新しいGANアーキテクチャを導入する。
VARGANは第3のネットワークを組み込んで、生成されたサンプルに多様性を導入する。
高多様性と低計算複雑性、および高速収束により、VARGANはモード崩壊を緩和する有望なモデルとなる。
論文 参考訳(メタデータ) (2021-09-05T16:28:21Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。