論文の概要: Gated SwitchGAN for multi-domain facial image translation
- arxiv url: http://arxiv.org/abs/2111.14096v1
- Date: Sun, 28 Nov 2021 10:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:09:24.768072
- Title: Gated SwitchGAN for multi-domain facial image translation
- Title(参考訳): 多領域顔画像翻訳のためのGated SwitchGAN
- Authors: Xiaokang Zhang, Yuanlue Zhu, Wenting Chen, Wenshuang Liu, and Linlin
Shen
- Abstract要約: 本稿では,より適応的な識別器構造と一致した生成器を備えたスイッチ生成逆数ネットワーク(SwitchGAN)を提案し,微妙な画像変換を行う。
条件付きモジュールにおける特徴選択と融合を実現するために,特徴切替操作を提案する。
Morph, RaFD, CelebAデータベースを用いた実験により, 我々の拡張SwitchGANは, StarGAN, AttGAN, STGANよりも優れた翻訳結果が得られることを示した。
- 参考スコア(独自算出の注目度): 12.501699058042439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on multi-domain facial image translation have achieved
impressive results. The existing methods generally provide a discriminator with
an auxiliary classifier to impose domain translation. However, these methods
neglect important information regarding domain distribution matching. To solve
this problem, we propose a switch generative adversarial network (SwitchGAN)
with a more adaptive discriminator structure and a matched generator to perform
delicate image translation among multiple domains. A feature-switching
operation is proposed to achieve feature selection and fusion in our
conditional modules. We demonstrate the effectiveness of our model.
Furthermore, we also introduce a new capability of our generator that
represents attribute intensity control and extracts content information without
tailored training. Experiments on the Morph, RaFD and CelebA databases visually
and quantitatively show that our extended SwitchGAN (i.e., Gated SwitchGAN) can
achieve better translation results than StarGAN, AttGAN and STGAN. The
attribute classification accuracy achieved using the trained ResNet-18 model
and the FID score obtained using the ImageNet pretrained Inception-v3 model
also quantitatively demonstrate the superior performance of our models.
- Abstract(参考訳): 近年,多領域顔画像翻訳の研究が注目されている。
既存の方法は一般に、ドメイン翻訳を課す補助分類器を備えた判別器を提供する。
しかし,これらの手法はドメイン分布マッチングに関する重要な情報を無視している。
そこで本稿では,より適応的な判別器構造を有するスイッチ生成逆ネットワーク(switchgan)とマッチング生成器を提案し,複数の領域間の微妙な画像変換を行う。
条件付きモジュールにおける特徴選択と融合を実現するために,特徴切替操作を提案する。
我々はモデルの有効性を実証する。
さらに,属性強度制御を表現し,学習を調整せずにコンテンツ情報を抽出するジェネレータの新機能についても紹介する。
Morph, RaFD, CelebAデータベースに対する実験により, 我々の拡張SwitchGAN(Gated SwitchGAN)はStarGAN, AttGAN, STGANよりも優れた翻訳結果が得られることが示された。
訓練されたresnet-18モデルを用いた属性分類精度とimagenet pretrained inception-v3モデルを用いたfidスコアも評価した。
関連論文リスト
- I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - Tell, Don't Show!: Language Guidance Eases Transfer Across Domains in Images and Videos [69.29778009769862]
ラベル付きソースから未ラベルのターゲットデータへの識別的知識の堅牢な転送をドメインギャップでガイドするフレームワークであるLaGTranを紹介する。
意味的にリッチなテキストモダリティがより好ましい転送特性を持つという我々の観察に触発された我々は、ソース学習されたテキスト分類器を用いて、ターゲットテキスト記述の予測を生成するための転送機構を考案した。
言語指導による私たちのアプローチは驚くほど簡単でシンプルですが、GeoNetやDomainNetといった挑戦的なデータセットに対する以前のアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2024-03-08T18:58:46Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - Variational Transfer Learning using Cross-Domain Latent Modulation [1.9662978733004601]
本稿では,効率的な転送学習を実現するために,新しいドメイン間遅延変調機構を変分オートエンコーダフレームワークに導入する。
ソース領域とターゲット領域の深部表現は、まず統一推論モデルにより抽出され、勾配逆数を用いて整列される。
学習した深層表現は、一貫性の制約が適用される代替ドメインの潜在エンコーディングにクロスモデレートされる。
論文 参考訳(メタデータ) (2022-05-31T03:47:08Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - One-Shot Generative Domain Adaptation [39.17324951275831]
本研究の目的は,GAN (Generative Adversarial Network) を1つの画像領域に事前トレーニングし,対象とする画像がわずかに少ない新しい領域に転送することである。
論文 参考訳(メタデータ) (2021-11-18T18:55:08Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Learning to adapt class-specific features across domains for semantic
segmentation [36.36210909649728]
本論文では,クラス情報毎に考慮し,ドメイン間の特徴を適応させることを学習する新しいアーキテクチャを提案する。
我々は最近導入されたStarGANアーキテクチャを画像翻訳のバックボーンとして採用している。
論文 参考訳(メタデータ) (2020-01-22T23:51:30Z) - Informative Sample Mining Network for Multi-Domain Image-to-Image
Translation [101.01649070998532]
本稿では,画像から画像への翻訳作業において,サンプル選択戦略の改善が有効であることを示す。
本稿では,サンプルの硬さを抑えつつ,サンプルの硬さを抑えるための新しい多段階サンプルトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-01-05T05:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。