論文の概要: Omni-GAN: On the Secrets of cGANs and Beyond
- arxiv url: http://arxiv.org/abs/2011.13074v3
- Date: Mon, 29 Mar 2021 03:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:13:07.037335
- Title: Omni-GAN: On the Secrets of cGANs and Beyond
- Title(参考訳): Omni-GAN:cGANとBeyondの秘密について
- Authors: Peng Zhou, Lingxi Xie, Bingbing Ni, Cong Geng, Qi Tian
- Abstract要約: 条件付き生成逆数ネットワーク(cGAN)は高品質な画像を生成する強力なツールである。
本稿では,モデルを訓練するための適切な識別器を設計する際のデビルを明らかにする,cGANの変種であるOmni-GANについて述べる。
Omni-GANとOmni-INR-GANの様々な画像生成および復元タスクにおける優れた性能を検証する実験を行った。
- 参考スコア(独自算出の注目度): 128.62392015597797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conditional generative adversarial network (cGAN) is a powerful tool of
generating high-quality images, but existing approaches mostly suffer
unsatisfying performance or the risk of mode collapse. This paper presents
Omni-GAN, a variant of cGAN that reveals the devil in designing a proper
discriminator for training the model. The key is to ensure that the
discriminator receives strong supervision to perceive the concepts and moderate
regularization to avoid collapse. Omni-GAN is easily implemented and freely
integrated with off-the-shelf encoding methods (e.g., implicit neural
representation, INR). Experiments validate the superior performance of Omni-GAN
and Omni-INR-GAN in a wide range of image generation and restoration tasks. In
particular, Omni-INR-GAN sets new records on the ImageNet dataset with
impressive Inception scores of 262.85 and 343.22 for the image sizes of 128 and
256, respectively, surpassing the previous records by 100+ points. Moreover,
leveraging the generator prior, Omni-INR-GAN can extrapolate low-resolution
images to arbitrary resolution, even up to x60+ higher resolution. Code is
available.
- Abstract(参考訳): 条件付き生成逆数ネットワーク(cGAN)は高品質な画像を生成する強力なツールであるが,既存の手法では性能に不満やモード崩壊のリスクがほとんどである。
本稿では,モデル学習のための適切な判別器の設計において悪魔を明らかにするcganの変種であるomni-ganを提案する。
鍵となるのは、判別者が概念を知覚し、崩壊を避けるために適度な正規化を行うための強い監督を受けることである。
Omni-GANは容易に実装され、市販の符号化手法(暗黙の神経表現、INRなど)と自由に統合される。
Omni-GANとOmni-INR-GANの様々な画像生成および復元タスクにおける優れた性能を検証する実験を行った。
特にomni-inr-ganは、画像サイズ128と256の印象的なインセプションスコア262.85と343.22でimagenetデータセットに新しいレコードをセットし、以前の記録を100点以上上回った。
さらに、以前のジェネレータを利用することで、Omni-INR-GANは低解像度画像を任意の解像度に外挿できる。
コードは利用可能。
関連論文リスト
- OmniControlNet: Dual-stage Integration for Conditional Image Generation [61.1432268643639]
我々は、外部条件生成アルゴリズムを1つの高密度予測法に統合することにより、広く採用されているコントロールネットの双方向統合を提供する。
提案したOmniControlNetは,1)タスク埋め込み指導下での1つのマルチタスク高密度予測アルゴリズムによる条件生成と,2)テキスト埋め込み指導下での異なる条件付き画像生成プロセスを統合した。
論文 参考訳(メタデータ) (2024-06-09T18:03:47Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - GLEAN: Generative Latent Bank for Image Super-Resolution and Beyond [99.6233044915999]
画像超解像の性能向上のために,StyleGAN や BigGAN などの事前学習型生成支援ネットワーク (GAN) が潜時バンクとして利用できることを示す。
我々の手法であるGenerative LatEnt bANk(GLEAN)は、事前訓練されたGANにカプセル化されているリッチで多様な事前情報を直接活用することで、既存のプラクティスを越えている。
画像のカラー化やブラインド画像の復元など,さまざまなタスクにメソッドを拡張し,提案手法が既存の手法と比較して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-07-29T17:59:01Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - Unsupervised Image Generation with Infinite Generative Adversarial
Networks [24.41144953504398]
無限条件GANまたはMIC-GANを混合した非教師なし非パラメトリック手法を提案する。
MIC-GANは潜伏空間の構造化やモード崩壊の回避に有効であることを示す。
論文 参考訳(メタデータ) (2021-08-18T05:03:19Z) - Improved Transformer for High-Resolution GANs [69.42469272015481]
この課題に対処するために、Transformerに2つの重要な要素を紹介します。
実験で提案したHiTは、条件のないImageNetの31.87と2.95のFIDスコアをそれぞれ128×128$とFFHQの256×256$で達成していることを示す。
論文 参考訳(メタデータ) (2021-06-14T17:39:49Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Fully Unsupervised Diversity Denoising with Convolutional Variational
Autoencoders [81.30960319178725]
完全畳み込み変分オートエンコーダ(VAE)に基づく復調手法であるDivNoisingを提案する。
まず, 撮像ノイズモデルをデコーダに明示的に組み込むことにより, 教師なしの雑音発生問題をVAEフレームワーク内に定式化する手法を提案する。
このようなノイズモデルは、ノイズの多いデータから測定したり、ブートストラップしたり、トレーニング中に共同学習したりすることが可能である。
論文 参考訳(メタデータ) (2020-06-10T21:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。