論文の概要: Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2207.08736v1
- Date: Mon, 18 Jul 2022 16:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 19:06:47.925475
- Title: Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks
- Title(参考訳): 生成型逆ネットワークの多様かつ忠実なワンショット適応に向けて
- Authors: Yabo Zhang, Mingshuai Yao, Yuxiang Wei, Zhilong Ji, Jinfeng Bai,
Wangmeng Zuo
- Abstract要約: ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
- 参考スコア(独自算出の注目度): 54.80435295622583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One-shot generative domain adaption aims to transfer a pre-trained generator
on one domain to a new domain using one reference image only. However, it
remains very challenging for the adapted generator (i) to generate diverse
images inherited from the pre-trained generator while (ii) faithfully acquiring
the domain-specific attributes and styles of the reference image. In this
paper, we present a novel one-shot generative domain adaption method, i.e.,
DiFa, for diverse generation and faithful adaptation. For global-level
adaptation, we leverage the difference between the CLIP embedding of reference
image and the mean embedding of source images to constrain the target
generator. For local-level adaptation, we introduce an attentive style loss
which aligns each intermediate token of adapted image with its corresponding
token of the reference image. To facilitate diverse generation, selective
cross-domain consistency is introduced to select and retain the domain-sharing
attributes in the editing latent $\mathcal{W}+$ space to inherit the diversity
of pre-trained generator. Extensive experiments show that our method
outperforms the state-of-the-arts both quantitatively and qualitatively,
especially for the cases of large domain gaps. Moreover, our DiFa can easily be
extended to zero-shot generative domain adaption with appealing results. Code
is available at https://github.com/1170300521/DiFa.
- Abstract(参考訳): ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
しかし、適応発電機にとっては非常に難しい。
一 予め訓練した発電機から受け継いだ多様な画像を生成すること
(ii)参照画像のドメイン固有の属性とスタイルを忠実に取得すること。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
グローバルレベルの適応には、参照画像のCLIP埋め込みとソース画像の平均埋め込みの違いを利用して、ターゲットジェネレータを制約する。
局所的な適応のために,適応画像の各中間トークンと参照画像の対応するトークンとを一致させる注意スタイルロスを導入する。
多様な生成を容易にするため、事前訓練されたジェネレータの多様性を継承するために、編集遅延の$\mathcal{W}+$スペース内のドメイン共有属性を選択および保持するために、選択的なクロスドメイン一貫性が導入される。
広範な実験により,本手法は,特に大きな領域間隙の場合において,定量的かつ定性的に最先端の手法を上回っていることが示された。
さらに,我々の difa は容易にゼロショット生成領域適応に拡張できる。
コードはhttps://github.com/1170300521/difaで入手できる。
関連論文リスト
- UniHDA: A Unified and Versatile Framework for Multi-Modal Hybrid Domain Adaptation [22.003900281544766]
提案するUniHDAは,複数のドメインからのマルチモーダル参照を持つハイブリッドドメインを生成可能なフレームワークである。
我々のフレームワークはジェネレータに依存しず、StyleGAN, EG3D, Diffusion Modelsなどの複数のジェネレータに汎用的です。
論文 参考訳(メタデータ) (2024-01-23T09:49:24Z) - Few-shot Hybrid Domain Adaptation of Image Generators [14.779903669510846]
Few-shot Hybrid Domain Adaptationは、すべてのターゲットドメインの統合属性を保存する適応型ジェネレータを取得することを目的としている。
本稿では,異なる領域の画像を分離可能な部分空間に直接エンコードする,差別化不要なフレームワークを提案する。
実験により,本手法は単一適応型ジェネレータにおいて多くのドメイン固有属性を得ることができることが示された。
論文 参考訳(メタデータ) (2023-10-30T09:35:43Z) - Zero-shot Generative Model Adaptation via Image-specific Prompt Learning [41.344908073632986]
CLIP誘導画像合成は、トレーニング済みのソースドメインジェネレータを未確認のターゲットドメインに適応する上で、魅力的な性能を示している。
本稿では,各ソース領域の画像に対して,特定のプロンプトベクトルを学習する画像固有プロンプト学習(IPL)手法を提案する。
IPLは、合成画像の品質と多様性を効果的に改善し、モード崩壊を軽減する。
論文 参考訳(メタデータ) (2023-04-06T14:48:13Z) - Generalized One-shot Domain Adaption of Generative Adversarial Networks [72.84435077616135]
GAN(Generative Adversarial Network)の適応は、事前訓練されたGANを、限られたトレーニングデータを持つ特定のドメインに転送することを目的としている。
我々は、ソースドメインからターゲットドメインへの適応を、テクスチャや色といったグローバルなスタイルの移行と、ソースドメインに属さない新しいエンティティの出現の2つの部分に分離できると考えている。
我々の中核的な目的は、参照と合成の内部分布のギャップをワッサーシュタイン距離によって制限することである。
論文 参考訳(メタデータ) (2022-09-08T09:24:44Z) - One-Shot Generative Domain Adaptation [39.17324951275831]
本研究の目的は,GAN (Generative Adversarial Network) を1つの画像領域に事前トレーニングし,対象とする画像がわずかに少ない新しい領域に転送することである。
論文 参考訳(メタデータ) (2021-11-18T18:55:08Z) - StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators [63.85888518950824]
生成モデルを新しいドメインに移行できるテキスト駆動方式を提案する。
自然言語のプロンプトと数分の訓練によって、我々の手法は複数のドメインにまたがってジェネレータを適応させることができることを示す。
論文 参考訳(メタデータ) (2021-08-02T14:46:46Z) - Few-shot Image Generation via Cross-domain Correspondence [98.2263458153041]
限られた例を含む対象領域におけるGANなどの生成モデルの訓練は、容易に過度な適合をもたらす。
本研究では,多様性情報をソースからターゲットにプリトレーニングし,転送するために,大きなソースドメインを活用することを目指す。
さらに,オーバーフィッティングを減らすために,潜在空間内の異なる領域に対して異なるレベルのリアリズムを奨励するアンカーベースの戦略を提案する。
論文 参考訳(メタデータ) (2021-04-13T17:59:35Z) - TriGAN: Image-to-Image Translation for Multi-Source Domain Adaptation [82.52514546441247]
本稿では,ジェネレーティブ・アドバイサル・ネットワークに基づくマルチソース・ドメイン適応(MSDA)の最初のアプローチを提案する。
本手法は,画像の出現がドメイン,スタイル,内容の3つの要因に依存するという観察に着想を得たものである。
提案手法はMSDAベンチマークを用いて試行し,最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:07:22Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。