論文の概要: Return of Unconditional Generation: A Self-supervised Representation Generation Method
- arxiv url: http://arxiv.org/abs/2312.03701v4
- Date: Fri, 01 Nov 2024 14:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-04 14:32:22.792660
- Title: Return of Unconditional Generation: A Self-supervised Representation Generation Method
- Title(参考訳): 非条件生成の返却:自己教師付き表現生成法
- Authors: Tianhong Li, Dina Katabi, Kaiming He,
- Abstract要約: 非条件生成は、人間のアノテートラベルに頼ることなく、データの分散をモデル化する問題である。
本研究では,自己教師型エンコーダによって生成された表現空間における意味表現を生成することにより,このギャップを埋めることができることを示す。
このフレームワークはRepresentation-Conditioned Generation (RCG)と呼ばれ、ラベルを使わずに無条件生成問題に対する効果的な解決策を提供する。
- 参考スコア(独自算出の注目度): 36.27605000082541
- License:
- Abstract: Unconditional generation -- the problem of modeling data distribution without relying on human-annotated labels -- is a long-standing and fundamental challenge in generative models, creating a potential of learning from large-scale unlabeled data. In the literature, the generation quality of an unconditional method has been much worse than that of its conditional counterpart. This gap can be attributed to the lack of semantic information provided by labels. In this work, we show that one can close this gap by generating semantic representations in the representation space produced by a self-supervised encoder. These representations can be used to condition the image generator. This framework, called Representation-Conditioned Generation (RCG), provides an effective solution to the unconditional generation problem without using labels. Through comprehensive experiments, we observe that RCG significantly improves unconditional generation quality: e.g., it achieves a new state-of-the-art FID of 2.15 on ImageNet 256x256, largely reducing the previous best of 5.91 by a relative 64%. Our unconditional results are situated in the same tier as the leading class-conditional ones. We hope these encouraging observations will attract the community's attention to the fundamental problem of unconditional generation. Code is available at https://github.com/LTH14/rcg.
- Abstract(参考訳): 無条件生成 -- 人間のアノテートラベルを頼らずにデータ分散をモデル化する問題 -- は、生成モデルにおける長年の根本的な課題であり、大規模にラベル付けされていないデータから学習する可能性を生み出している。
文献では、非条件法の生成品質は条件法よりもはるかに悪くなっている。
このギャップはラベルが提供する意味情報の欠如に起因する可能性がある。
本研究では,自己教師型エンコーダによって生成された表現空間における意味表現を生成することにより,このギャップを埋めることができることを示す。
これらの表現は、イメージジェネレータの条件付けに使用することができる。
このフレームワークはRepresentation-Conditioned Generation (RCG)と呼ばれ、ラベルを使わずに無条件生成問題に対する効果的な解決策を提供する。
例えば、ImageNet 256x256上で2.15の新たな最先端FIDを実現し、以前の5.91のベストを相対64%削減する。
我々の無条件の結果は、主要なクラス条件の結果と同じ階層にある。
これらの奨励的な観察が、無条件発生の根本的な問題にコミュニティの注意を引き付けることを願っている。
コードはhttps://github.com/LTH14/rcg.comで入手できる。
関連論文リスト
- Score-based Conditional Generation with Fewer Labeled Data by
Self-calibrating Classifier Guidance [16.025002076222002]
SGM(Score-based Generative Model)は、画像生成品質の高い深層生成モデルのファミリである。
この問題は、下層の非条件分布とコーディネートすることなく、分類器が過度に適合する傾向に根ざしていると論じる。
分類器自身を正規化させることにより、分類器誘導型SGMを改善することを提案する。
論文 参考訳(メタデータ) (2023-07-09T01:41:22Z) - Generator Knows What Discriminator Should Learn in Unconditional GANs [18.913330654689496]
生成元の特徴マップは、非条件生成においてリッチな意味表現を持つように識別器を監督する新しいジェネレータ誘導型識別器正規化(GGDR)を提案する。
具体的には,識別器のU-Netアーキテクチャを用いて,擬似画像を入力として生成する特徴マップの予測を訓練する。
論文 参考訳(メタデータ) (2022-07-27T06:49:26Z) - Spatially Multi-conditional Image Generation [80.04130168156792]
本稿では,マルチ条件画像生成の問題に対処する新しいニューラルアーキテクチャを提案する。
提案手法は, 利用可能なラベルを入力トークンとして受信する, 画素単位のトランスフォーマー型アーキテクチャを用いる。
3つのベンチマークデータセットに対する実験により,提案手法の最先端および比較ベースラインに対する明らかな優位性を示した。
論文 参考訳(メタデータ) (2022-03-25T17:57:13Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - StackGAN: Facial Image Generation Optimizations [0.0]
現在の最先端のフォトリアリスティック・ジェネレータは計算コストが高く、不安定な訓練過程を伴い、高次元空間で異なる実空間と合成分布を持つ。
そこで我々は,条件付きジェネレータを組み込んだStackGANアーキテクチャの変種を提案する。
我々のモデルはCelebA顔画像データセットを用いて訓練され、エッジ画像のFr'echet Inception Distance(FID)スコア73、合成エッジ画像のグレースケール画像のスコア59を達成した。
論文 参考訳(メタデータ) (2021-08-30T15:04:47Z) - Dual Projection Generative Adversarial Networks for Conditional Image
Generation [26.563829113916942]
本稿では、エムデータマッチングとエムラベルマッチングのバランスをとることを学習するDual Projection GAN(P2GAN)モデルを提案する。
次に、Auxiliary Classificationを用いた改良されたcGANモデルを提案し、$f$-divergenceを最小化することで、偽条件および実条件を$P(textclass|textimage)$と直列に調整する。
論文 参考訳(メタデータ) (2021-08-20T06:10:38Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Inducing Optimal Attribute Representations for Conditional GANs [61.24506213440997]
条件付きGANは、あるカテゴリから別のカテゴリへの画像の変換に広く使用されている。
既存の条件付きGANは、ターゲットドメインラベル情報を0と1の形式でハードコードされたカテゴリベクトルとして符号化する。
本稿では,グラフ畳み込みネットワークを用いた新しいエンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T20:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。