論文の概要: GuidedStyle: Attribute Knowledge Guided Style Manipulation for Semantic
Face Editing
- arxiv url: http://arxiv.org/abs/2012.11856v1
- Date: Tue, 22 Dec 2020 06:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:31:23.146422
- Title: GuidedStyle: Attribute Knowledge Guided Style Manipulation for Semantic
Face Editing
- Title(参考訳): GuidedStyle:Atribute Knowledge Guided Style Manipulation for Semantic Face Editing (英語)
- Authors: Xianxu Hou, Xiaokang Zhang, Linlin Shen, Zhihui Lai, Jun Wan
- Abstract要約: 本論文では,StyleGAN上で意味的顔編集を実現するための新しい学習フレームワークである GuidedStyle を提案する。
本手法は,笑顔,眼鏡,性別,口ひげ,毛髪の色など,様々な属性に沿って不規則で制御可能な編集を行うことができる。
- 参考スコア(独自算出の注目度): 39.57994147985615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although significant progress has been made in synthesizing high-quality and
visually realistic face images by unconditional Generative Adversarial Networks
(GANs), there still lacks of control over the generation process in order to
achieve semantic face editing. In addition, it remains very challenging to
maintain other face information untouched while editing the target attributes.
In this paper, we propose a novel learning framework, called GuidedStyle, to
achieve semantic face editing on StyleGAN by guiding the image generation
process with a knowledge network. Furthermore, we allow an attention mechanism
in StyleGAN generator to adaptively select a single layer for style
manipulation. As a result, our method is able to perform disentangled and
controllable edits along various attributes, including smiling, eyeglasses,
gender, mustache and hair color. Both qualitative and quantitative results
demonstrate the superiority of our method over other competing methods for
semantic face editing. Moreover, we show that our model can be also applied to
different types of real and artistic face editing, demonstrating strong
generalization ability.
- Abstract(参考訳): 非条件生成型逆向ネットワーク(gans)による高品質で視覚的な顔画像の合成には大きな進歩があったが、セマンティックな顔編集を実現するために生成プロセスに対する制御が不足している。
さらに、ターゲット属性を編集しながら、他の顔情報を無修正に保つことは、依然として非常に困難である。
本稿では,画像生成過程を知識ネットワークで導くことによって,StyleGANのセマンティックな顔編集を実現するための新しい学習フレームワークである GuidedStyle を提案する。
さらに,StyleGANジェネレータのアテンション機構により,スタイル操作のための単一層を適応的に選択することができる。
その結果, 笑顔, 眼鏡, 性別, 口ひげ, 毛髪の色など, 様々な属性に沿って不規則で制御可能な編集を行うことができた。
質的および定量的な結果は,他のセマンティックフェース編集法と比較して,本手法の優位性を示すものである。
さらに,本モデルが実物や芸術的な顔編集にも適用可能であることを示し,強力な一般化能力を示す。
関連論文リスト
- When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - ChatFace: Chat-Guided Real Face Editing via Diffusion Latent Space
Manipulation [22.724306705927095]
そこで本研究では,テキスト駆動による画像編集をセマンティック潜時空間の拡散モデルで行う手法を提案する。
拡散モデルの時間的特徴を生成過程における意味条件と整合させることにより,安定な操作戦略を導入する。
我々はChatFaceという対話型システムを開発し、大きな言語モデルのゼロショット推論能力を組み合わせて効率的な操作を行う。
論文 参考訳(メタデータ) (2023-05-24T05:28:37Z) - A comprehensive survey on semantic facial attribute editing using
generative adversarial networks [0.688204255655161]
多くの顔生成と操作モデルが提案されている。
セマンティック顔属性編集(Semantic face attribute editing)は、顔画像の1つ以上の属性の値を変更する過程である。
アーキテクチャに基づいて、最先端のモデルはエンコーダデコーダ、イメージ・ツー・イメージ、フォトガイドモデルに分類され、研究される。
論文 参考訳(メタデータ) (2022-05-21T13:09:38Z) - MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation [69.35523133292389]
本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
論文 参考訳(メタデータ) (2021-11-01T15:53:36Z) - FacialGAN: Style Transfer and Attribute Manipulation on Synthetic Faces [9.664892091493586]
FacialGANは、リッチなスタイル転送と対話的な顔属性操作を可能にする新しいフレームワークである。
モデルが視覚的に説得力のある結果を生み出す能力は,スタイル伝達,属性操作,多様性,顔認証などである。
論文 参考訳(メタデータ) (2021-10-18T15:53:38Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。