論文の概要: S2cGAN: Semi-Supervised Training of Conditional GANs with Fewer Labels
- arxiv url: http://arxiv.org/abs/2010.12622v1
- Date: Fri, 23 Oct 2020 19:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 21:33:55.079690
- Title: S2cGAN: Semi-Supervised Training of Conditional GANs with Fewer Labels
- Title(参考訳): S2cGAN:低ラベル条件付きガンの半監督訓練
- Authors: Arunava Chakraborty, Rahul Ragesh, Mahir Shah, Nipun Kwatra
- Abstract要約: 条件付きGAN(cGAN)は、ユーザ定義入力に出力を条件付けすることで生成プロセスを制御するメカニズムを提供する。
スパースラベルを用いて条件付きマッピングを学習するcGANの半教師付きトレーニングフレームワークを提案する。
提案手法の有効性を,複数のデータセットと異なる条件付きタスクで示す。
- 参考スコア(独自算出の注目度): 1.3764085113103222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have been remarkably successful in
learning complex high dimensional real word distributions and generating
realistic samples. However, they provide limited control over the generation
process. Conditional GANs (cGANs) provide a mechanism to control the generation
process by conditioning the output on a user defined input. Although training
GANs requires only unsupervised data, training cGANs requires labelled data
which can be very expensive to obtain. We propose a framework for
semi-supervised training of cGANs which utilizes sparse labels to learn the
conditional mapping, and at the same time leverages a large amount of
unsupervised data to learn the unconditional distribution. We demonstrate
effectiveness of our method on multiple datasets and different conditional
tasks.
- Abstract(参考訳): generative adversarial network (gans) は複雑な高次元実単語分布を学習し、現実的なサンプルを生成することに成功した。
しかし、これらは生成過程を限定的に制御する。
条件付きGAN(cGAN)は、ユーザ定義入力に出力を条件付けすることで生成プロセスを制御するメカニズムを提供する。
GANのトレーニングには教師なしのデータのみが必要であるが、cGANのトレーニングにはラベル付きデータが必要である。
スパースラベルを用いて条件付きマッピングを学習するcgansの半教師付き学習のためのフレームワークを提案すると同時に,無条件分布を学習するために大量の教師なしデータを活用する。
提案手法の有効性を複数のデータセットと異なる条件タスクで示す。
関連論文リスト
- Leveraging Contaminated Datasets to Learn Clean-Data Distribution with
Purified Generative Adversarial Networks [15.932410447038697]
GAN(Generative Adversarial Network)は、トレーニングインスタンスの基盤となる分布を捉える能力で知られている。
既存のGANはトレーニングデータセットがクリーンであるという前提でほぼ確立されている。
多くの現実世界のアプリケーションでは、これは、トレーニングデータセットが望ましくないインスタンスの割合で汚染されるという、保持できないかもしれない。
2つのPuriGAN(PuriGAN)が開発され、識別器はターゲットインスタンスと汚染インスタンスを区別する能力で拡張される。
論文 参考訳(メタデータ) (2023-02-03T13:18:52Z) - A Distinct Unsupervised Reference Model From The Environment Helps
Continual Learning [5.332329421663282]
Open-Set Semi-Supervised Continual Learning (OSSCL)は、より現実的な半教師付き連続学習環境である。
i) 参照ネットワークは、未ラベルサンプルの幅広いスペクトルを用いて、環境における汎用的およびタスク非依存的な知識をキャプチャし、(ii) 学習者ネットワークは、教師付きサンプルを利用してタスク固有表現を学習するように設計されている。
論文 参考訳(メタデータ) (2023-01-11T15:05:36Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。