論文の概要: Data-Efficient Instance Generation from Instance Discrimination
- arxiv url: http://arxiv.org/abs/2106.04566v1
- Date: Tue, 8 Jun 2021 17:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:50:49.680421
- Title: Data-Efficient Instance Generation from Instance Discrimination
- Title(参考訳): インスタンス識別によるデータ効率の高いインスタンス生成
- Authors: Ceyuan Yang, Yujun Shen, Yinghao Xu, Bolei Zhou
- Abstract要約: 本稿では,インスタンス識別に基づくデータ効率の高いインスタンス生成手法を提案する。
本研究では,インスタンス識別に基づくデータ効率の高いインスタンス生成(InsGen)手法を提案する。
- 参考スコア(独自算出の注目度): 40.71055888512495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have significantly advanced image
synthesis, however, the synthesis quality drops significantly given a limited
amount of training data. To improve the data efficiency of GAN training, prior
work typically employs data augmentation to mitigate the overfitting of the
discriminator yet still learn the discriminator with a bi-classification (i.e.,
real vs. fake) task. In this work, we propose a data-efficient Instance
Generation (InsGen) method based on instance discrimination. Concretely,
besides differentiating the real domain from the fake domain, the discriminator
is required to distinguish every individual image, no matter it comes from the
training set or from the generator. In this way, the discriminator can benefit
from the infinite synthesized samples for training, alleviating the overfitting
problem caused by insufficient training data. A noise perturbation strategy is
further introduced to improve its discriminative power. Meanwhile, the learned
instance discrimination capability from the discriminator is in turn exploited
to encourage the generator for diverse generation. Extensive experiments
demonstrate the effectiveness of our method on a variety of datasets and
training settings. Noticeably, on the setting of 2K training images from the
FFHQ dataset, we outperform the state-of-the-art approach with 23.5% FID
improvement.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は画像合成が大幅に進歩するが、学習データが少ないため、合成品質は著しく低下する。
GANトレーニングのデータ効率を改善するために、従来の作業では、データ拡張を使用して、判別器の過度な適合を緩和するが、2つの分類(すなわち、実対偽対偽)タスクで識別器を学習する。
本研究では,インスタンス識別に基づくデータ効率の高いインスタンス生成(InsGen)手法を提案する。
具体的には、実際のドメインを偽のドメインと区別するだけでなく、識別器はトレーニングセットやジェネレータから来なくても、個々のイメージを識別する必要がある。
このようにして、判別器はトレーニングのための無限合成サンプルの恩恵を受け、不十分なトレーニングデータによって引き起こされる過剰適合問題を軽減することができる。
識別力を向上させるために、さらにノイズ摂動戦略を導入する。
一方、識別器から学習したインスタンス識別能力は、多様な世代に対してジェネレータを奨励するために利用される。
広範囲な実験により,様々なデータセットとトレーニング環境における本手法の有効性が示された。
特に、FFHQデータセットからの2Kトレーニングイメージの設定では、23.5%のFID改善で最先端のアプローチよりも優れています。
関連論文リスト
- Dynamically Masked Discriminator for Generative Adversarial Networks [71.33631511762782]
GAN(Generative Adversarial Networks)のトレーニングは依然として難しい問題である。
識別器は、実際の/生成されたデータの分布を学習してジェネレータを訓練する。
本稿では,オンライン連続学習の観点から,GANの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T12:07:01Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Re-using Adversarial Mask Discriminators for Test-time Training under
Distribution Shifts [10.647970046084916]
安定判別器の訓練によって表現的損失関数が生成され、推論時に再使用してセグメント化ミスを検出し、修正することができると論じる。
我々は、識別器と画像再構成コストを(デコーダを介して)組み合わせることで、モデルをさらに改善できることを示す。
提案手法は単純で,事前学習したGANの試験時間性能を向上させる。
論文 参考訳(メタデータ) (2021-08-26T17:31:46Z) - MCL-GAN: Generative Adversarial Networks with Multiple Specialized Discriminators [47.19216713803009]
本稿では,複数の識別器を用いた生成対向ネットワークの枠組みを提案する。
データ全体のサブセットに専門知識を持つように、各差別者を指導します。
複数の識別器を使用するにもかかわらず、バックボーンネットワークは識別器間で共有される。
論文 参考訳(メタデータ) (2021-07-15T11:35:08Z) - Training GANs with Stronger Augmentations via Contrastive Discriminator [80.8216679195]
本稿では,gan判別器にコントラスト表現学習方式を導入する。
この「融合」により、識別者は訓練の不安定さを増すことなく、より強力な増強に対処できる。
実験の結果,contratd付きganはfidを一貫して改善し,データ拡張を組み込んだ他の手法と比較した。
論文 参考訳(メタデータ) (2021-03-17T16:04:54Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。