論文の概要: D3T-GAN: Data-Dependent Domain Transfer GANs for Few-shot Image
Generation
- arxiv url: http://arxiv.org/abs/2205.06032v1
- Date: Thu, 12 May 2022 11:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 14:21:07.530287
- Title: D3T-GAN: Data-Dependent Domain Transfer GANs for Few-shot Image
Generation
- Title(参考訳): D3T-GAN:Few-shot画像生成のためのデータ依存ドメイン転送GAN
- Authors: Xintian Wu, Huanyu Wang, Yiming Wu, Xi Li
- Abstract要約: 少数のサンプルを与えられたGANモデルをトレーニングすることで、現実的な画像を生成することを目的としている。
数ショット生成の典型的な解決策は、よく訓練されたGANモデルをデータ豊富なソースドメインからデータ不足のターゲットドメインに転送することである。
本稿では,D3T-GANと呼ばれる自己監督型転送方式を提案する。
- 参考スコア(独自算出の注目度): 17.20913584422917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important and challenging problem, few-shot image generation aims at
generating realistic images through training a GAN model given few samples. A
typical solution for few-shot generation is to transfer a well-trained GAN
model from a data-rich source domain to the data-deficient target domain. In
this paper, we propose a novel self-supervised transfer scheme termed D3T-GAN,
addressing the cross-domain GANs transfer in few-shot image generation.
Specifically, we design two individual strategies to transfer knowledge between
generators and discriminators, respectively. To transfer knowledge between
generators, we conduct a data-dependent transformation, which projects and
reconstructs the target samples into the source generator space. Then, we
perform knowledge transfer from transformed samples to generated samples. To
transfer knowledge between discriminators, we design a multi-level discriminant
knowledge distillation from the source discriminator to the target
discriminator on both the real and fake samples. Extensive experiments show
that our method improve the quality of generated images and achieves the
state-of-the-art FID scores on commonly used datasets.
- Abstract(参考訳): 重要かつ困難な問題として、少数のサンプルを与えられたGANモデルをトレーニングすることで、現実的な画像を生成することを目的としている。
数ショット生成の典型的な解決策は、よく訓練されたGANモデルをデータ豊富なソースドメインからデータ不足のターゲットドメインに転送することである。
本稿では,D3T-GANと呼ばれる自己監督型転送方式を提案する。
具体的には,ジェネレータと識別器間で知識を伝達する2つの個別戦略を設計する。
生成元間の知識を伝達するために,対象とするサンプルをソースジェネレータ空間に投影し,再構成するデータ依存変換を行う。
次に,変換サンプルから生成サンプルへの知識伝達を行う。
判別器間で知識を伝達するために,実検体と偽検体の両方において,ソース判別器からターゲット判別器への多段階識別知識蒸留を設計する。
広汎な実験により,本手法は生成画像の品質を向上し,一般的なデータセットにおける最先端のFIDスコアを実現する。
関連論文リスト
- Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - Exploring Incompatible Knowledge Transfer in Few-shot Image Generation [107.81232567861117]
少ないショット画像生成は、いくつかの参照サンプルを使用して、ターゲットドメインから多彩で高忠実な画像を生成することを学習する。
既存のF SIGメソッドは、ソースジェネレータから事前の知識を選択し、保存し、転送し、ターゲットジェネレータを学習する。
本稿では,知識保存を補完する操作であり,軽量プルーニング方式で実装した知識トランケーションを提案する。
論文 参考訳(メタデータ) (2023-04-15T14:57:15Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Diffusion Guided Domain Adaptation of Image Generators [22.444668833151677]
分類器フリーガイダンスを批判として活用し,大規模テキスト・画像拡散モデルから知識を抽出できることを示す。
ジェネレータは、ターゲットドメインからの基底サンプルにアクセスすることなく、テキストプロンプトによって示される新しいドメインに効率的に移動することができる。
CLIP損失を最小限に抑えるためにトレーニングされていないが、我々のモデルはCLIPスコアが等しく高く、FIDが短いプロンプトよりも大幅に低い。
論文 参考訳(メタデータ) (2022-12-08T18:46:19Z) - Few-shot Image Generation via Masked Discrimination [20.998032566820907]
少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-27T06:02:22Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - A Systematic Evaluation of Domain Adaptation in Facial Expression
Recognition [0.0]
本稿では,表情認識における領域適応の体系的評価について述べる。
我々は、最先端のトランスファー学習技術と、6つの一般的な顔表情データセットを使用する。
その結果,移動学習の精度は高くなく,目的のデータセットと慣用的に異なることがわかった。
論文 参考訳(メタデータ) (2021-06-29T14:41:19Z) - MineGAN++: Mining Generative Models for Efficient Knowledge Transfer to
Limited Data Domains [77.46963293257912]
本稿では,特定の対象領域に最も有益である知識をマイニングした生成モデルのための新しい知識伝達手法を提案する。
これは、各事前訓練されたGANの生成分布のどの部分が対象領域に最も近いサンプルを出力しているかを識別するマイカネットワークを用いて行われる。
提案手法はMineGANと呼ばれ,ターゲット画像が少ない領域に効果的に知識を伝達し,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-28T13:10:56Z) - Domain Adaptation for Learning Generator from Paired Few-Shot Data [72.04430033118426]
十分なソースデータと少数のターゲットデータを持つジェネレータを学習するためのペアドフェーショットGAN(PFS-GAN)モデルを提案する。
提案手法は,複数のベースラインと比較して,より多様性の高い生成対象ドメインデータに対して,定量的,定性的な結果が得られる。
論文 参考訳(メタデータ) (2021-02-25T10:11:44Z) - Six-channel Image Representation for Cross-domain Object Detection [17.854940064699985]
ディープラーニングモデルはデータ駆動であり、優れたパフォーマンスは豊富で多様なデータセットに依存する。
いくつかの画像から画像への翻訳技術は、モデルを訓練するために特定のシーンの偽データを生成するために用いられる。
3チャンネル画像とそのgan生成した偽画像に刺激を与え,データセットの6チャンネル表現を作成することを提案する。
論文 参考訳(メタデータ) (2021-01-03T04:50:03Z) - Data Instance Prior for Transfer Learning in GANs [25.062518859107946]
限られたデータ領域におけるGANの新たな転送学習手法を提案する。
提案手法は,対象画像の少ない領域に知識を効果的に伝達することを示す。
また,大規模な無条件画像生成と画像編集タスクに先立って,データインスタンスの有用性を示す。
論文 参考訳(メタデータ) (2020-12-08T07:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。