論文の概要: FacialGAN: Style Transfer and Attribute Manipulation on Synthetic Faces
- arxiv url: http://arxiv.org/abs/2110.09425v1
- Date: Mon, 18 Oct 2021 15:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:40:41.398961
- Title: FacialGAN: Style Transfer and Attribute Manipulation on Synthetic Faces
- Title(参考訳): FacialGAN: 合成顔におけるスタイル伝達と属性操作
- Authors: Ricard Durall, Jireh Jam, Dominik Strassel, Moi Hoon Yap, Janis Keuper
- Abstract要約: FacialGANは、リッチなスタイル転送と対話的な顔属性操作を可能にする新しいフレームワークである。
モデルが視覚的に説得力のある結果を生み出す能力は,スタイル伝達,属性操作,多様性,顔認証などである。
- 参考スコア(独自算出の注目度): 9.664892091493586
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Facial image manipulation is a generation task where the output face is
shifted towards an intended target direction in terms of facial attribute and
styles. Recent works have achieved great success in various editing techniques
such as style transfer and attribute translation. However, current approaches
are either focusing on pure style transfer, or on the translation of predefined
sets of attributes with restricted interactivity. To address this issue, we
propose FacialGAN, a novel framework enabling simultaneous rich style transfers
and interactive facial attributes manipulation. While preserving the identity
of a source image, we transfer the diverse styles of a target image to the
source image. We then incorporate the geometry information of a segmentation
mask to provide a fine-grained manipulation of facial attributes. Finally, a
multi-objective learning strategy is introduced to optimize the loss of each
specific tasks. Experiments on the CelebA-HQ dataset, with CelebAMask-HQ as
semantic mask labels, show our model's capacity in producing visually
compelling results in style transfer, attribute manipulation, diversity and
face verification. For reproducibility, we provide an interactive open-source
tool to perform facial manipulations, and the Pytorch implementation of the
model.
- Abstract(参考訳): 顔画像操作は、顔の属性やスタイルの観点から、出力された顔が目的のターゲット方向に移動する生成タスクである。
近年の作品は、スタイル転送や属性翻訳といった様々な編集技術で大きな成功を収めている。
しかし、現在のアプローチは純粋スタイルの転送、あるいは制限された相互作用性を持つ事前定義された属性セットの翻訳に焦点を当てている。
この問題に対処するために,我々は,リッチなスタイル転送とインタラクティブな顔属性操作を同時に可能にする新しいフレームワークであるfaceganを提案する。
ソースイメージのアイデンティティを維持しながら、ターゲットイメージの多様なスタイルをソースイメージに転送します。
次に,セグメンテーションマスクの形状情報を組み込んで,顔属性の細かな操作を行う。
最後に、各タスクの損失を最適化するために、多目的学習戦略を導入する。
celebamask-hqをセマンティックマスクラベルとするceleba-hqデータセットの実験では,スタイル転送,属性操作,多様性,顔認証といった視覚的に魅力的な結果を生成する上で,モデルの能力を示す。
再現性を高めるために,顔の操作を行うインタラクティブなオープンソースツールと,モデルのPytorch実装を提供する。
関連論文リスト
- When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Face Transformer: Towards High Fidelity and Accurate Face Swapping [54.737909435708936]
Face swappingは、ソース顔の同一性とターゲット顔の属性を融合させるスワップ画像を生成することを目的としている。
本稿では,顔の同一性と対象属性を同時に正確に保存できる新しい顔交換ネットワークであるFace Transformerを提案する。
論文 参考訳(メタデータ) (2023-04-05T15:51:44Z) - Learning Disentangled Representation for One-shot Progressive Face
Swapping [65.98684203654908]
ジェネレーティブ・アドバーサリアル・ネットワークに基づくワンショット・フェイススワップのためのシンプルで効率的なFaceSwapperを提案する。
提案手法は,不整合表現モジュールと意味誘導融合モジュールから構成される。
その結果,本手法は,トレーニングサンプルの少ないベンチマークで最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-24T11:19:04Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - GuidedStyle: Attribute Knowledge Guided Style Manipulation for Semantic
Face Editing [39.57994147985615]
本論文では,StyleGAN上で意味的顔編集を実現するための新しい学習フレームワークである GuidedStyle を提案する。
本手法は,笑顔,眼鏡,性別,口ひげ,毛髪の色など,様々な属性に沿って不規則で制御可能な編集を行うことができる。
論文 参考訳(メタデータ) (2020-12-22T06:53:31Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。