論文の概要: InfoMax-GAN: Improved Adversarial Image Generation via Information
Maximization and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2007.04589v6
- Date: Sun, 22 Nov 2020 18:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:03:37.091840
- Title: InfoMax-GAN: Improved Adversarial Image Generation via Information
Maximization and Contrastive Learning
- Title(参考訳): InfoMax-GAN:情報最大化とコントラスト学習による逆画像生成の改善
- Authors: Kwot Sin Lee, Ngoc-Trung Tran, Ngai-Man Cheung
- Abstract要約: GAN(Generative Adversarial Networks)は、多くのジェネレーティブモデリングアプリケーションの基本である。
本稿では,GANにおける2つの基本的な問題を同時に緩和する基本的枠組みを提案する。
提案手法は, 5つのデータセットにわたる画像合成において, GANトレーニングを著しく安定化し, GAN性能を向上させる。
- 参考スコア(独自算出の注目度): 39.316605441868944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Generative Adversarial Networks (GANs) are fundamental to many
generative modelling applications, they suffer from numerous issues. In this
work, we propose a principled framework to simultaneously mitigate two
fundamental issues in GANs: catastrophic forgetting of the discriminator and
mode collapse of the generator. We achieve this by employing for GANs a
contrastive learning and mutual information maximization approach, and perform
extensive analyses to understand sources of improvements. Our approach
significantly stabilizes GAN training and improves GAN performance for image
synthesis across five datasets under the same training and evaluation
conditions against state-of-the-art works. In particular, compared to the
state-of-the-art SSGAN, our approach does not suffer from poorer performance on
image domains such as faces, and instead improves performance significantly.
Our approach is simple to implement and practical: it involves only one
auxiliary objective, has a low computational cost, and performs robustly across
a wide range of training settings and datasets without any hyperparameter
tuning. For reproducibility, our code is available in Mimicry:
https://github.com/kwotsin/mimicry.
- Abstract(参考訳): Generative Adversarial Networks (GANs) は、多くのジェネレーティブモデリングアプリケーションに基本であるが、多くの問題に悩まされている。
本研究では,gansにおける2つの根本的な問題である判別器の破滅的な忘れ方と生成器のモード崩壊を同時に緩和する原則的枠組みを提案する。
比較学習と相互情報最大化アプローチをgansに採用し,改善の源泉を理解するために広範な分析を行う。
提案手法はGANトレーニングを著しく安定化させ,同じトレーニングと評価条件下での5つのデータセット間の画像合成におけるGAN性能を向上する。
特に、最先端のSSGANと比較して、我々のアプローチは顔などの画像領域の性能が劣るものではなく、性能が大幅に向上する。
私たちのアプローチは、実装が簡単で実用的です。それは、1つの補助目的のみを含み、計算コストが低く、ハイパーパラメータチューニングなしで、幅広いトレーニング設定とデータセットで堅牢に実行します。
再現性のために、私たちのコードはMimicryで利用可能です。
関連論文リスト
- E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - A Simple and Effective Baseline for Attentional Generative Adversarial
Networks [8.63558211869045]
テキスト記述を通して生成モデルを導くことで高品質な画像のテキスト・ツー・イメージモデルを構築することは革新的で挑戦的な課題である。
近年、GANトレーニングをガイドするAttnGAN、SD-GAN、Stack-GAN++が提案されている。
我々は,AttnGANの冗長構造を除去し,バックボーンネットワークを改善するために,一般的なシンプルで効果的なアイデア(1)を用いる。
モデルの性能が変化しないことを保証しながら、モデルのサイズとトレーニング効率を大幅に改善しました。
論文 参考訳(メタデータ) (2023-06-26T13:55:57Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - A Generic Approach for Enhancing GANs by Regularized Latent Optimization [79.00740660219256]
本稿では,事前学習したGANを効果的かつシームレスに拡張できる,エミュレーティブモデル推論と呼ばれる汎用フレームワークを提案する。
我々の基本的な考え方は、ワッサーシュタイン勾配流法を用いて与えられた要求に対する最適潜時分布を効率的に推算することである。
論文 参考訳(メタデータ) (2021-12-07T05:22:50Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - Incorporating Reinforced Adversarial Learning in Autoregressive Image
Generation [39.55651747758391]
本稿では,自己回帰モデルに対するポリシー勾配最適化に基づく強化適応学習(RAL)を提案する。
RALはまた、VQ-VAEフレームワークの異なるモジュール間のコラボレーションを強化する。
提案手法は,64$times$64画像解像度でCelebaの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-07-20T08:10:07Z) - DeshuffleGAN: A Self-Supervised GAN to Improve Structure Learning [0.0]
我々は、GAN性能を改善する上で重要なポイントの1つは、データ内の空間構造を学習する能力を備えたモデルを提供することであると主張している。
ランダムにシャッフルされた画像タイルのパズルを解くデシャッフルタスクを導入し、デシャッフルGANが空間構造と現実的な外観の表現能力を向上させるのに役立つ。
論文 参考訳(メタデータ) (2020-06-15T19:06:07Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。