論文の概要: Unsupervised Image Generation with Infinite Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2108.07975v1
- Date: Wed, 18 Aug 2021 05:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:41:23.507649
- Title: Unsupervised Image Generation with Infinite Generative Adversarial
Networks
- Title(参考訳): Infinite Generative Adversarial Networkによる教師なし画像生成
- Authors: Hui Ying, He Wang, Tianjia Shao, Yin Yang, Kun Zhou
- Abstract要約: 無限条件GANまたはMIC-GANを混合した非教師なし非パラメトリック手法を提案する。
MIC-GANは潜伏空間の構造化やモード崩壊の回避に有効であることを示す。
- 参考スコア(独自算出の注目度): 24.41144953504398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image generation has been heavily investigated in computer vision, where one
core research challenge is to generate images from arbitrarily complex
distributions with little supervision. Generative Adversarial Networks (GANs)
as an implicit approach have achieved great successes in this direction and
therefore been employed widely. However, GANs are known to suffer from issues
such as mode collapse, non-structured latent space, being unable to compute
likelihoods, etc. In this paper, we propose a new unsupervised non-parametric
method named mixture of infinite conditional GANs or MIC-GANs, to tackle
several GAN issues together, aiming for image generation with parsimonious
prior knowledge. Through comprehensive evaluations across different datasets,
we show that MIC-GANs are effective in structuring the latent space and
avoiding mode collapse, and outperform state-of-the-art methods. MICGANs are
adaptive, versatile, and robust. They offer a promising solution to several
well-known GAN issues. Code available: github.com/yinghdb/MICGANs.
- Abstract(参考訳): 画像生成はコンピュータビジョンでよく研究されており、ある重要な研究課題は、ほとんど監督せずに任意に複雑な分布から画像を生成することである。
GAN(Generative Adversarial Networks)は暗黙のアプローチとしてこの方向に大きく成功し、広く採用されている。
しかしganはモードの崩壊、非構造的潜在空間、可能性の計算ができないといった問題に苦しむことが知られている。
本稿では,無限条件付きGANとMIC-GANを混合した非教師付き非パラメトリック手法を提案する。
MIC-GANは,様々なデータセットを包括的に評価することにより,潜伏空間の構築やモード崩壊の回避,最先端手法の向上に有効であることを示す。
MICGANは適応的で、汎用的で、堅牢である。
彼らはよく知られたGAN問題に対する有望な解決策を提供する。
コード提供: github.com/yinghdb/micgans。
関連論文リスト
- Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - CoDeGAN: Contrastive Disentanglement for Generative Adversarial Network [0.5437298646956507]
解釈可能な機械学習において重要な関心事であるディスタングルメントもまた、コンピュータビジョンコミュニティから大きな注目を集めている。
我々はtextttCoDeGAN を提案し、画像領域から特徴領域への切り離しに関する類似性制約を緩和する。
我々はCoDeGANに自己教師付き事前学習を統合して意味表現を学習し、教師なしの絡み合いを著しく促進する。
論文 参考訳(メタデータ) (2021-03-05T12:44:22Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - Optimizing Generative Adversarial Networks for Image Super Resolution
via Latent Space Regularization [4.529132742139768]
GAN(Generative Adversarial Networks)は、多様体内の実画像の分布を学習し、実際のように見えるサンプルを生成する。
本稿では,これらの問題を教師付きGANに対して緩和する方法を探究する。
論文 参考訳(メタデータ) (2020-01-22T16:27:20Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。