論文の概要: Few-shot Image Generation via Masked Discrimination
- arxiv url: http://arxiv.org/abs/2210.15194v3
- Date: Fri, 8 Dec 2023 06:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 19:24:51.367475
- Title: Few-shot Image Generation via Masked Discrimination
- Title(参考訳): マスク識別による少数撮影画像生成
- Authors: Jingyuan Zhu, Huimin Ma, Jiansheng Chen, Jian Yuan
- Abstract要約: 少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 20.998032566820907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot image generation aims to generate images of high quality and great
diversity with limited data. However, it is difficult for modern GANs to avoid
overfitting when trained on only a few images. The discriminator can easily
remember all the training samples and guide the generator to replicate them,
leading to severe diversity degradation. Several methods have been proposed to
relieve overfitting by adapting GANs pre-trained on large source domains to
target domains using limited real samples. This work presents a novel approach
to realize few-shot GAN adaptation via masked discrimination. Random masks are
applied to features extracted by the discriminator from input images. We aim to
encourage the discriminator to judge various images which share partially
common features with training samples as realistic. Correspondingly, the
generator is guided to generate diverse images instead of replicating training
samples. In addition, we employ a cross-domain consistency loss for the
discriminator to keep relative distances between generated samples in its
feature space. It strengthens global image discrimination and guides adapted
GANs to preserve more information learned from source domains for higher image
quality. The effectiveness of our approach is demonstrated both qualitatively
and quantitatively with higher quality and greater diversity on a series of
few-shot image generation tasks than prior methods.
- Abstract(参考訳): 少数ショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
しかし、現代のGANでは、少数の画像でしか訓練しない場合、過度な適合を避けることは困難である。
判別器は、すべてのトレーニングサンプルを記憶し、ジェネレータに複製を誘導し、深刻な多様性の低下を引き起こすことができる。
大規模なソースドメインで事前訓練されたGANを、限られた実サンプルを用いてターゲットドメインに適応させることにより、オーバーフィッティングを緩和するいくつかの手法が提案されている。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
入力画像から判別器によって抽出された特徴に対してランダムマスクを適用する。
本研究の目的は,学習サンプルと共通する特徴を一部共有する様々なイメージをリアルに判断することである。
それに対応して、ジェネレータは、トレーニングサンプルを複製する代わりに、多様な画像を生成するようにガイドされる。
さらに,その特徴空間内で生成したサンプル間の相対距離を保持するために,判別器に対するクロスドメイン一貫性損失を用いる。
グローバルイメージの識別を強化し、より高品質な画像のためにソースドメインから学ぶより多くの情報を保存するためにganを導入した。
本手法の有効性は,従来の手法よりも質的かつ定量的に,高品質で多彩な数発画像生成タスクにおいて示される。
関連論文リスト
- Few-Shot Image Generation by Conditional Relaxing Diffusion Inversion [37.18537753482751]
条件拡散緩和インバージョン(CRDI)は、合成画像生成における分布の多様性を高めるために設計されている。
CRDIはいくつかのサンプルに基づいた微調整を頼りにしていない。
ターゲットの画像インスタンスの再構築と、数ショットの学習による多様性の拡大に重点を置いている。
論文 参考訳(メタデータ) (2024-07-09T21:58:26Z) - Conditioning Diffusion Models via Attributes and Semantic Masks for Face
Generation [1.104121146441257]
深層生成モデルは、現実的な顔の画像を生成する素晴らしい結果を示している。
GANはセマンティックマスクで条件付きで高品質で高忠実な画像を生成することができたが、それでも出力を多様化する能力は欠けていた。
本稿では,属性とセマンティックマスクの両方を利用した多条件拡散モデルの提案を行い,高品質で制御可能な顔画像を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:16:37Z) - Improving GAN Training via Feature Space Shrinkage [69.98365478398593]
本稿では,識別器の画像表現空間におけるトレーニングデータの領域を縮小するAdaptiveMixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
評価結果から,我々のAdaptiveMixはGANの訓練を容易にし,生成したサンプルの画像品質を効果的に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-03-02T20:22:24Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - A Closer Look at Few-shot Image Generation [38.83570296616384]
訓練済みのGANを小さなターゲットデータで転送する場合、ジェネレータはトレーニングサンプルを複製する傾向がある。
この数ショットの画像生成に対処するいくつかの方法が提案されているが、それらを統一されたフレームワークで分析する努力が不足している。
適応中に既存の手法を解析するためのフレームワークを提案する。
第2のコントリビューションは、ソースドメインのリッチなマルチレベル多様性情報をターゲットドメインジェネレータに保持するために、相互情報(MI)を適用することを提案する。
論文 参考訳(メタデータ) (2022-05-08T07:46:26Z) - One-Shot Generative Domain Adaptation [39.17324951275831]
本研究の目的は,GAN (Generative Adversarial Network) を1つの画像領域に事前トレーニングし,対象とする画像がわずかに少ない新しい領域に転送することである。
論文 参考訳(メタデータ) (2021-11-18T18:55:08Z) - Few-shot Image Generation via Cross-domain Correspondence [98.2263458153041]
限られた例を含む対象領域におけるGANなどの生成モデルの訓練は、容易に過度な適合をもたらす。
本研究では,多様性情報をソースからターゲットにプリトレーニングし,転送するために,大きなソースドメインを活用することを目指す。
さらに,オーバーフィッティングを減らすために,潜在空間内の異なる領域に対して異なるレベルのリアリズムを奨励するアンカーベースの戦略を提案する。
論文 参考訳(メタデータ) (2021-04-13T17:59:35Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z) - Informative Sample Mining Network for Multi-Domain Image-to-Image
Translation [101.01649070998532]
本稿では,画像から画像への翻訳作業において,サンプル選択戦略の改善が有効であることを示す。
本稿では,サンプルの硬さを抑えつつ,サンプルの硬さを抑えるための新しい多段階サンプルトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-01-05T05:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。