論文の概要: D3T-GAN: Data-Dependent Domain Transfer GANs for Few-shot Image
Generation
- arxiv url: http://arxiv.org/abs/2205.06032v1
- Date: Thu, 12 May 2022 11:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 14:21:07.530287
- Title: D3T-GAN: Data-Dependent Domain Transfer GANs for Few-shot Image
Generation
- Title(参考訳): D3T-GAN:Few-shot画像生成のためのデータ依存ドメイン転送GAN
- Authors: Xintian Wu, Huanyu Wang, Yiming Wu, Xi Li
- Abstract要約: 少数のサンプルを与えられたGANモデルをトレーニングすることで、現実的な画像を生成することを目的としている。
数ショット生成の典型的な解決策は、よく訓練されたGANモデルをデータ豊富なソースドメインからデータ不足のターゲットドメインに転送することである。
本稿では,D3T-GANと呼ばれる自己監督型転送方式を提案する。
- 参考スコア(独自算出の注目度): 17.20913584422917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important and challenging problem, few-shot image generation aims at
generating realistic images through training a GAN model given few samples. A
typical solution for few-shot generation is to transfer a well-trained GAN
model from a data-rich source domain to the data-deficient target domain. In
this paper, we propose a novel self-supervised transfer scheme termed D3T-GAN,
addressing the cross-domain GANs transfer in few-shot image generation.
Specifically, we design two individual strategies to transfer knowledge between
generators and discriminators, respectively. To transfer knowledge between
generators, we conduct a data-dependent transformation, which projects and
reconstructs the target samples into the source generator space. Then, we
perform knowledge transfer from transformed samples to generated samples. To
transfer knowledge between discriminators, we design a multi-level discriminant
knowledge distillation from the source discriminator to the target
discriminator on both the real and fake samples. Extensive experiments show
that our method improve the quality of generated images and achieves the
state-of-the-art FID scores on commonly used datasets.
- Abstract(参考訳): 重要かつ困難な問題として、少数のサンプルを与えられたGANモデルをトレーニングすることで、現実的な画像を生成することを目的としている。
数ショット生成の典型的な解決策は、よく訓練されたGANモデルをデータ豊富なソースドメインからデータ不足のターゲットドメインに転送することである。
本稿では,D3T-GANと呼ばれる自己監督型転送方式を提案する。
具体的には,ジェネレータと識別器間で知識を伝達する2つの個別戦略を設計する。
生成元間の知識を伝達するために,対象とするサンプルをソースジェネレータ空間に投影し,再構成するデータ依存変換を行う。
次に,変換サンプルから生成サンプルへの知識伝達を行う。
判別器間で知識を伝達するために,実検体と偽検体の両方において,ソース判別器からターゲット判別器への多段階識別知識蒸留を設計する。
広汎な実験により,本手法は生成画像の品質を向上し,一般的なデータセットにおける最先端のFIDスコアを実現する。
関連論文リスト
- Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - One-Shot Generative Domain Adaptation [39.17324951275831]
本研究の目的は,GAN (Generative Adversarial Network) を1つの画像領域に事前トレーニングし,対象とする画像がわずかに少ない新しい領域に転送することである。
論文 参考訳(メタデータ) (2021-11-18T18:55:08Z) - A Systematic Evaluation of Domain Adaptation in Facial Expression
Recognition [0.0]
本稿では,表情認識における領域適応の体系的評価について述べる。
我々は、最先端のトランスファー学習技術と、6つの一般的な顔表情データセットを使用する。
その結果,移動学習の精度は高くなく,目的のデータセットと慣用的に異なることがわかった。
論文 参考訳(メタデータ) (2021-06-29T14:41:19Z) - MineGAN++: Mining Generative Models for Efficient Knowledge Transfer to
Limited Data Domains [79.77591059917903]
本稿では,特定の対象領域に最も有益である知識のマイニングに基づく生成モデルに対する新しい知識伝達法を提案する。
これは、各事前訓練されたGANの生成分布のどの部分が対象領域に最も近いサンプルを出力しているかを識別するマイカネットワークを用いて行われる。
提案手法であるMineGANは,ターゲット画像の少ない領域に知識を効果的に伝達し,既存の手法を上回っていることを示した。
論文 参考訳(メタデータ) (2021-04-28T13:10:56Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Domain Adaptation for Learning Generator from Paired Few-Shot Data [72.04430033118426]
十分なソースデータと少数のターゲットデータを持つジェネレータを学習するためのペアドフェーショットGAN(PFS-GAN)モデルを提案する。
提案手法は,複数のベースラインと比較して,より多様性の高い生成対象ドメインデータに対して,定量的,定性的な結果が得られる。
論文 参考訳(メタデータ) (2021-02-25T10:11:44Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Six-channel Image Representation for Cross-domain Object Detection [17.854940064699985]
ディープラーニングモデルはデータ駆動であり、優れたパフォーマンスは豊富で多様なデータセットに依存する。
いくつかの画像から画像への翻訳技術は、モデルを訓練するために特定のシーンの偽データを生成するために用いられる。
3チャンネル画像とそのgan生成した偽画像に刺激を与え,データセットの6チャンネル表現を作成することを提案する。
論文 参考訳(メタデータ) (2021-01-03T04:50:03Z) - Data Instance Prior for Transfer Learning in GANs [25.062518859107946]
限られたデータ領域におけるGANの新たな転送学習手法を提案する。
提案手法は,対象画像の少ない領域に知識を効果的に伝達することを示す。
また,大規模な無条件画像生成と画像編集タスクに先立って,データインスタンスの有用性を示す。
論文 参考訳(メタデータ) (2020-12-08T07:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。