論文の概要: LT-GAN: Self-Supervised GAN with Latent Transformation Detection
- arxiv url: http://arxiv.org/abs/2010.09893v1
- Date: Mon, 19 Oct 2020 22:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:26:17.771697
- Title: LT-GAN: Self-Supervised GAN with Latent Transformation Detection
- Title(参考訳): LT-GAN:潜時変換検出による自己監督型GAN
- Authors: Parth Patel, Nupur Kumari, Mayank Singh, Balaji Krishnamurthy
- Abstract要約: 画像の生成品質と多様性を改善するための自己教師付きアプローチ(LT-GAN)を提案する。
我々は,提案するLT-GANが,他の最先端のトレーニング技術と効果的に組み合わせて,付加的なメリットを享受できることを実験的に実証した。
- 参考スコア(独自算出の注目度): 10.405721171353195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) coupled with self-supervised tasks
have shown promising results in unconditional and semi-supervised image
generation. We propose a self-supervised approach (LT-GAN) to improve the
generation quality and diversity of images by estimating the GAN-induced
transformation (i.e. transformation induced in the generated images by
perturbing the latent space of generator). Specifically, given two pairs of
images where each pair comprises of a generated image and its transformed
version, the self-supervision task aims to identify whether the latent
transformation applied in the given pair is same to that of the other pair.
Hence, this auxiliary loss encourages the generator to produce images that are
distinguishable by the auxiliary network, which in turn promotes the synthesis
of semantically consistent images with respect to latent transformations. We
show the efficacy of this pretext task by improving the image generation
quality in terms of FID on state-of-the-art models for both conditional and
unconditional settings on CIFAR-10, CelebA-HQ and ImageNet datasets. Moreover,
we empirically show that LT-GAN helps in improving controlled image editing for
CelebA-HQ and ImageNet over baseline models. We experimentally demonstrate that
our proposed LT self-supervision task can be effectively combined with other
state-of-the-art training techniques for added benefits. Consequently, we show
that our approach achieves the new state-of-the-art FID score of 9.8 on
conditional CIFAR-10 image generation.
- Abstract(参考訳): GAN(Generative Adversarial Networks)と自己教師付きタスクは、無条件および半教師付き画像生成において有望な結果を示す。
我々は,gan誘発変換(生成画像の潜在空間を摂動させることによる変換)を推定することにより,画像の生成品質と多様性を向上させるための自己教師付きアプローチ(lt-gan)を提案する。
具体的には、各対が生成した画像と変換されたバージョンから構成される2対の画像が与えられた場合、自己超越タスクは、与えられたペアに適用される潜時変換が他のペアと同一であるかどうかを識別することを目的とする。
したがって、補助的損失は、補助的ネットワークによって識別可能な画像を生成することを助長し、それにより潜在変換に関して意味的に一貫性のある画像の合成を促進する。
CIFAR-10, CelebA-HQ, ImageNetデータセットの条件付きおよび非条件付き設定におけるFIDによる画像生成品質の向上により, このプリテキストタスクの有効性を示す。
さらに,LT-GANがベースラインモデル上でのCelebA-HQとImageNetの制御画像編集の改善に有効であることを示す。
提案するLTセルフスーパービジョンタスクが,他の最先端のトレーニング手法と効果的に組み合わせて,付加的なメリットを享受できることを実験的に実証した。
その結果,条件付きCIFAR-10画像生成において,最新のFIDスコア9.8を達成することができた。
関連論文リスト
- StraIT: Non-autoregressive Generation with Stratified Image Transformer [63.158996766036736]
Stratified Image Transformer(StraIT)は、純粋な非自己回帰(NAR)生成モデルである。
実験の結果,StraIT は NAR 生成を著しく改善し,既存の DM および AR 手法より優れていた。
論文 参考訳(メタデータ) (2023-03-01T18:59:33Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Evolving GAN Formulations for Higher Quality Image Synthesis [15.861807854144228]
generative adversarial networks (gans) はディープラーニングを複雑な生成と翻訳タスクに拡張した。
トレーニングプロセスにおけるモード崩壊やその他の不安定性は、生成された結果の品質を劣化させることが多い。
本稿では2つのネットワーク毎にカスタマイズされた損失関数を発見し,GANを改善するためのTaylorGANという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T05:11:21Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Group Equivariant Generative Adversarial Networks [7.734726150561089]
本研究では,グループ同変畳み込みネットワークを通じて,帰納的対称性をネットワークアーキテクチャに明示的に組み込む。
群変換はより表現力が高く、サンプルが少ないため、ジェネレータと判別器の間の勾配フィードバックが向上する。
論文 参考訳(メタデータ) (2020-05-04T17:38:49Z) - Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion [3.8807073304999355]
GAN(Generative Adversarial Networks)は、教師なし画像生成に成功している。
画素数が少ない場合, GANの条件付けの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加し,画素単位の条件を強制するモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-04T13:49:15Z) - Toward a Controllable Disentanglement Network [22.968760397814993]
本稿では, 画像編集における歪みの程度を制御し, 歪み強度と復元品質のバランスをとることにより, 歪み画像表現を学習する2つの重要な問題に対処する。
ソフトターゲット表現の実際の値空間を探索することにより、指定された特性を持つ新規な画像を合成することができる。
論文 参考訳(メタデータ) (2020-01-22T16:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。