論文の概要: Training GANs with Stronger Augmentations via Contrastive Discriminator
- arxiv url: http://arxiv.org/abs/2103.09742v1
- Date: Wed, 17 Mar 2021 16:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 13:11:51.030566
- Title: Training GANs with Stronger Augmentations via Contrastive Discriminator
- Title(参考訳): コントラスト判別器による強化型GANの訓練
- Authors: Jongheon Jeong and Jinwoo Shin
- Abstract要約: 本稿では,gan判別器にコントラスト表現学習方式を導入する。
この「融合」により、識別者は訓練の不安定さを増すことなく、より強力な増強に対処できる。
実験の結果,contratd付きganはfidを一貫して改善し,データ拡張を組み込んだ他の手法と比較した。
- 参考スコア(独自算出の注目度): 80.8216679195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works in Generative Adversarial Networks (GANs) are actively
revisiting various data augmentation techniques as an effective way to prevent
discriminator overfitting. It is still unclear, however, that which
augmentations could actually improve GANs, and in particular, how to apply a
wider range of augmentations in training. In this paper, we propose a novel way
to address these questions by incorporating a recent contrastive representation
learning scheme into the GAN discriminator, coined ContraD. This "fusion"
enables the discriminators to work with much stronger augmentations without
increasing their training instability, thereby preventing the discriminator
overfitting issue in GANs more effectively. Even better, we observe that the
contrastive learning itself also benefits from our GAN training, i.e., by
maintaining discriminative features between real and fake samples, suggesting a
strong coherence between the two worlds: good contrastive representations are
also good for GAN discriminators, and vice versa. Our experimental results show
that GANs with ContraD consistently improve FID and IS compared to other recent
techniques incorporating data augmentations, still maintaining highly
discriminative features in the discriminator in terms of the linear evaluation.
Finally, as a byproduct, we also show that our GANs trained in an unsupervised
manner (without labels) can induce many conditional generative models via a
simple latent sampling, leveraging the learned features of ContraD. Code is
available at https://github.com/jh-jeong/ContraD.
- Abstract(参考訳): GAN(Generative Adversarial Networks)の最近の研究は、差別者の過度な適合を防ぐための効果的な方法として、様々なデータ拡張手法を再考している。
しかし、どの強化が実際にGANを改善できるか、特に、より広い範囲の強化をトレーニングに適用するかは、まだ不明である。
本稿では,最近のコントラッシブな表現学習手法をGAN識別器に組み込むことにより,これらの問題に対処する新しい手法を提案する。
この「融合」により、差別者は、訓練の不安定性を増大させることなく、より強力な強化を施すことができ、これにより、差別者がより効果的にGANの過剰適合問題を防止できる。
さらによいのは、コントラスト学習自体が、実際のサンプルと偽のサンプルの間の識別的特徴を維持することによって、私たちのganトレーニングの恩恵を受けることであり、両者の間に強い一貫性があることを示します。
実験の結果,データ拡張を取り入れた他の手法と比較して, ContraD を用いた GAN は連続的に FID と IS を向上し, 線形評価の点から差別的特徴を保っていることがわかった。
最後に, 副産物として, 学習したContraDの特徴を活かした簡易潜伏サンプリングにより, 教師なし(ラベルなし)で訓練したGANが, 多くの条件生成モデルを誘導できることを示す。
コードはhttps://github.com/jh-jeong/contradで入手できる。
関連論文リスト
- Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - Private GANs, Revisited [16.570354461039603]
差分的私的GANの訓練における標準的アプローチは,訓練修正後の有意に改善した結果が得られることを示す。
単純な修正 -- ジェネレータステップ間での差別化のステップをより多く取る -- が、ジェネレータと差別化のパリティを回復し、結果を改善することを示しています。
論文 参考訳(メタデータ) (2023-02-06T17:11:09Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Re-using Adversarial Mask Discriminators for Test-time Training under
Distribution Shifts [10.647970046084916]
安定判別器の訓練によって表現的損失関数が生成され、推論時に再使用してセグメント化ミスを検出し、修正することができると論じる。
我々は、識別器と画像再構成コストを(デコーダを介して)組み合わせることで、モデルをさらに改善できることを示す。
提案手法は単純で,事前学習したGANの試験時間性能を向上させる。
論文 参考訳(メタデータ) (2021-08-26T17:31:46Z) - Hybrid Generative-Contrastive Representation Learning [32.84066504783469]
コントラストと生成的損失の両方で訓練されたトランスフォーマーベースのエンコーダデコーダアーキテクチャは、生成性能を損なうことなく、高い識別性および堅牢性を持つ表現を学習できることを示す。
論文 参考訳(メタデータ) (2021-06-11T04:23:48Z) - Data-Efficient Instance Generation from Instance Discrimination [40.71055888512495]
本稿では,インスタンス識別に基づくデータ効率の高いインスタンス生成手法を提案する。
本研究では,インスタンス識別に基づくデータ効率の高いインスタンス生成(InsGen)手法を提案する。
論文 参考訳(メタデータ) (2021-06-08T17:52:59Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。