論文の概要: One-Shot Generative Domain Adaptation
- arxiv url: http://arxiv.org/abs/2111.09876v1
- Date: Thu, 18 Nov 2021 18:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 15:52:08.373765
- Title: One-Shot Generative Domain Adaptation
- Title(参考訳): ワンショット生成ドメイン適応
- Authors: Ceyuan Yang, Yujun Shen, Zhiyi Zhang, Yinghao Xu, Jiapeng Zhu, Zhirong
Wu, Bolei Zhou
- Abstract要約: 本研究の目的は,GAN (Generative Adversarial Network) を1つの画像領域に事前トレーニングし,対象とする画像がわずかに少ない新しい領域に転送することである。
- 参考スコア(独自算出の注目度): 39.17324951275831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims at transferring a Generative Adversarial Network (GAN)
pre-trained on one image domain to a new domain referring to as few as just one
target image. The main challenge is that, under limited supervision, it is
extremely difficult to synthesize photo-realistic and highly diverse images,
while acquiring representative characters of the target. Different from
existing approaches that adopt the vanilla fine-tuning strategy, we import two
lightweight modules to the generator and the discriminator respectively.
Concretely, we introduce an attribute adaptor into the generator yet freeze its
original parameters, through which it can reuse the prior knowledge to the most
extent and hence maintain the synthesis quality and diversity. We then equip
the well-learned discriminator backbone with an attribute classifier to ensure
that the generator captures the appropriate characters from the reference.
Furthermore, considering the poor diversity of the training data (i.e., as few
as only one image), we propose to also constrain the diversity of the
generative domain in the training process, alleviating the optimization
difficulty. Our approach brings appealing results under various settings,
substantially surpassing state-of-the-art alternatives, especially in terms of
synthesis diversity. Noticeably, our method works well even with large domain
gaps, and robustly converges within a few minutes for each experiment.
- Abstract(参考訳): 本研究の目的は,GAN (Generative Adversarial Network) を1つの画像領域に事前トレーニングし,対象とする画像がわずかに少ない新しい領域に転送することである。
主な課題は、限られた監督下では、対象の代表的な文字を取得しながら、写実的で非常に多様な画像を合成することが極めて困難であることである。
バニラファインチューニング戦略を採用する既存のアプローチとは異なり、我々は2つの軽量モジュールをジェネレータと識別器にそれぞれインポートする。
具体的には, ジェネレータに属性適応器を導入し, 元のパラメータを凍結し, 従来の知識を最大限に再利用し, 合成品質と多様性を維持する。
次に、よく学習した識別器のバックボーンに属性分類器を装備し、ジェネレータが参照から適切な文字をキャプチャすることを保証する。
さらに,訓練データの多様性の低さ(すなわち1枚の画像に限らず)を考慮して,学習過程における生成領域の多様性を制約し,最適化の困難さを緩和することを提案する。
提案手法は様々な条件下で魅力的な結果をもたらし、特に合成の多様性において最先端の代替品をはるかに上回っている。
特に、我々の手法は大きな領域ギャップでもうまく機能し、実験毎に数分以内にしっかりと収束する。
関連論文リスト
- I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - Few-shot Image Generation via Masked Discrimination [20.998032566820907]
少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-27T06:02:22Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - Improving Diversity with Adversarially Learned Transformations for
Domain Generalization [81.26960899663601]
本稿では、ニューラルネットワークを用いた逆学習変換(ALT)を用いて、可塑性かつハードな画像変換をモデル化する新しいフレームワークを提案する。
我々は、ALTが既存の多様性モジュールと自然に連携して、ソースドメインの大規模変換によって最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-06-15T18:05:24Z) - A Closer Look at Few-shot Image Generation [38.83570296616384]
訓練済みのGANを小さなターゲットデータで転送する場合、ジェネレータはトレーニングサンプルを複製する傾向がある。
この数ショットの画像生成に対処するいくつかの方法が提案されているが、それらを統一されたフレームワークで分析する努力が不足している。
適応中に既存の手法を解析するためのフレームワークを提案する。
第2のコントリビューションは、ソースドメインのリッチなマルチレベル多様性情報をターゲットドメインジェネレータに保持するために、相互情報(MI)を適用することを提案する。
論文 参考訳(メタデータ) (2022-05-08T07:46:26Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。