論文の概要: Few-shot Face Image Translation via GAN Prior Distillation
- arxiv url: http://arxiv.org/abs/2301.12257v1
- Date: Sat, 28 Jan 2023 17:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:12:04.315323
- Title: Few-shot Face Image Translation via GAN Prior Distillation
- Title(参考訳): GAN事前蒸留による顔画像翻訳
- Authors: Ruoyu Zhao, Mingrui Zhu, Xiaoyu Wang and Nannan Wang
- Abstract要約: 本稿では,顔画像の効果的翻訳を実現するために,GAN事前蒸留法を提案する。
ソース領域の大規模データに基づいて学習した教師ネットワークを,サンプル数本だけで対象領域に適応させる。
提案手法は,数ショット設定で最先端の手法よりも優れた結果が得られることを示す。
- 参考スコア(独自算出の注目度): 38.00357663006016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face image translation has made notable progress in recent years. However,
when training on limited data, the performance of existing approaches
significantly declines. Although some studies have attempted to tackle this
problem, they either failed to achieve the few-shot setting (less than 10) or
can only get suboptimal results. In this paper, we propose GAN Prior
Distillation (GPD) to enable effective few-shot face image translation. GPD
contains two models: a teacher network with GAN Prior and a student network
that fulfills end-to-end translation. Specifically, we adapt the teacher
network trained on large-scale data in the source domain to the target domain
with only a few samples, where it can learn the target domain's knowledge.
Then, we can achieve few-shot augmentation by generating source domain and
target domain images simultaneously with the same latent codes. We propose an
anchor-based knowledge distillation module that can fully use the difference
between the training and the augmented data to distill the knowledge of the
teacher network into the student network. The trained student network achieves
excellent generalization performance with the absorption of additional
knowledge. Qualitative and quantitative experiments demonstrate that our method
achieves superior results than state-of-the-art approaches in a few-shot
setting.
- Abstract(参考訳): 近年,顔画像の翻訳が顕著な進歩を遂げている。
しかし、限られたデータでトレーニングする場合、既存のアプローチのパフォーマンスは大幅に低下する。
この問題に対処しようとする研究もあるが、数発(10点未満)を達成できなかったり、最適以下の結果しか得られなかったりする。
本稿では,顔画像の効果的翻訳を実現するためのGPD (GPD) を提案する。
GPDには、教師ネットワークと、エンドツーエンドの翻訳を行う学生ネットワークの2つのモデルが含まれている。
具体的には、ソースドメインの大規模データに基づいてトレーニングされた教師ネットワークを、ターゲットドメインの知識を学習できる少数のサンプルでターゲットドメインに適応させる。
そして、同じ潜在コードと共に、ソースドメインとターゲットドメインイメージを同時に生成することで、少数ショットの強化を実現することができる。
本稿では,教師ネットワークの知識を学生ネットワークに抽出するために,トレーニングと強化データの違いを完全に活用できるアンカーベースの知識蒸留モジュールを提案する。
訓練された学生ネットワークは、追加知識を吸収して優れた一般化性能を達成する。
質的かつ定量的な実験により,本手法は最先端の手法よりも数発で優れた結果が得られることを示した。
関連論文リスト
- Direct Distillation between Different Domains [97.39470334253163]
異なるドメイン間の直接蒸留(4Ds)と呼ばれる新しいワンステージ手法を提案する。
まず、Fourier変換に基づいて学習可能なアダプタを設計し、ドメイン固有の知識からドメイン不変知識を分離する。
次に、価値あるドメイン不変知識を学生ネットワークに転送するための融合活性化機構を構築する。
論文 参考訳(メタデータ) (2024-01-12T02:48:51Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Improved knowledge distillation by utilizing backward pass knowledge in
neural networks [17.437510399431606]
知識蒸留(KD)は、モデル圧縮において重要な技術の一つである。
本研究では,教師の後方パスから知識を抽出し,新たな補助訓練サンプルを作成する。
自然言語処理(NLP)と言語理解(Language understanding)の応用において,この手法がいかにうまく利用できるかを示す。
論文 参考訳(メタデータ) (2023-01-27T22:07:38Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Hierarchical Self-Supervised Learning for Medical Image Segmentation
Based on Multi-Domain Data Aggregation [23.616336382437275]
医用画像分割のための階層型自己監督学習(HSSL)を提案する。
まず、いくつかの医学的課題からデータセットを収集し、自己教師付きでネットワークを事前訓練し、最後にラベル付きデータに微調整します。
スクラッチから学習するのに比べ、新しい手法は様々なタスクにおいてより良いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2021-07-10T18:17:57Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Data Instance Prior for Transfer Learning in GANs [25.062518859107946]
限られたデータ領域におけるGANの新たな転送学習手法を提案する。
提案手法は,対象画像の少ない領域に知識を効果的に伝達することを示す。
また,大規模な無条件画像生成と画像編集タスクに先立って,データインスタンスの有用性を示す。
論文 参考訳(メタデータ) (2020-12-08T07:40:30Z) - DeepI2I: Enabling Deep Hierarchical Image-to-Image Translation by
Transferring from GANs [43.33066765114446]
画像から画像への変換は、クラス間の変換が大きな形状変化を必要とする場合、性能が劣る。
本稿では,DeepI2Iと呼ばれる新しい階層型画像から画像への変換手法を提案する。
転送学習はI2Iシステム、特に小さなデータセットの性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2020-11-11T16:03:03Z) - TuiGAN: Learning Versatile Image-to-Image Translation with Two Unpaired
Images [102.4003329297039]
教師なし画像画像変換(UI2I)タスクは、ペア画像のない2つのドメイン間のマッピングを学習する。
本研究では,2つの未ペア画像のみをトレーニングし,ワンショットで教師なし学習を行う生成モデルTuiGANを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。