論文の概要: EleGANt: Exquisite and Locally Editable GAN for Makeup Transfer
- arxiv url: http://arxiv.org/abs/2207.09840v1
- Date: Wed, 20 Jul 2022 11:52:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:42:03.233573
- Title: EleGANt: Exquisite and Locally Editable GAN for Makeup Transfer
- Title(参考訳): EleGANt: メイクアップ転送のための必須かつローカル編集可能なGAN
- Authors: Chenyu Yang, Wanrong He, Yingqing Xu, Yang Gao
- Abstract要約: EleGANt (EleGANt) を用いたエキサイティングで局所的に編集可能なGANを提案する。
顔の特徴をピラミッドの特徴マップにエンコードし、高周波情報を保存する。
EleGANtは、機能マップの対応する編集によって任意の領域でカスタマイズされたローカル編集を実現する最初の方法である。
- 参考スコア(独自算出の注目度): 13.304362849679391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing methods view makeup transfer as transferring color
distributions of different facial regions and ignore details such as eye
shadows and blushes. Besides, they only achieve controllable transfer within
predefined fixed regions. This paper emphasizes the transfer of makeup details
and steps towards more flexible controls. To this end, we propose Exquisite and
locally editable GAN for makeup transfer (EleGANt). It encodes facial
attributes into pyramidal feature maps to preserves high-frequency information.
It uses attention to extract makeup features from the reference and adapt them
to the source face, and we introduce a novel Sow-Attention Module that applies
attention within shifted overlapped windows to reduce the computational cost.
Moreover, EleGANt is the first to achieve customized local editing within
arbitrary areas by corresponding editing on the feature maps. Extensive
experiments demonstrate that EleGANt generates realistic makeup faces with
exquisite details and achieves state-of-the-art performance. The code is
available at https://github.com/Chenyu-Yang-2000/EleGANt.
- Abstract(参考訳): 既存の手法では、メークアップトランスファーは異なる顔領域の色分布を転送し、アイシャドウやブラッシュなどの詳細を無視する。
さらに、事前定義された固定領域内でのみ制御可能な転送を実現する。
本稿では,より柔軟な制御に向けたメイクアップの詳細とステップの移動を強調する。
そこで本稿では, 化粧品の転写のためのGAN (EleGANt) を提案する。
顔の特徴をピラミッド型特徴マップにエンコードし、高周波情報を保存する。
参照からメイクアップの特徴を抽出し、ソースフェイスに適用し、シフト重ね合わせウィンドウ内で注意を向け、計算コストを低減した新しいソーアテンションモジュールを導入する。
さらに、EleGANtは、機能マップの対応する編集によって任意の領域でカスタマイズされたローカル編集を初めて達成した。
大規模な実験により、EleGANtは精巧な詳細でリアルなメイクフェイスを生成し、最先端のパフォーマンスを実現する。
コードはhttps://github.com/chenyu-yang-2000/elegantで入手できる。
関連論文リスト
- Stable-Makeup: When Real-World Makeup Transfer Meets Diffusion Model [35.01727715493926]
現在のメークアップ転送方式は単純なメイクスタイルに限られており、現実のシナリオでは適用が困難である。
本研究では,多様な現実世界の化粧品を堅牢に転写できる新しい拡散型化粧品転写法であるStable-Makeupを紹介する。
論文 参考訳(メタデータ) (2024-03-12T15:53:14Z) - SARA: Controllable Makeup Transfer with Spatial Alignment and Region-Adaptive Normalization [67.90315365909244]
本稿では,空間アライメントと領域適応正規化法(SARA)を提案する。
提案手法は,大規模な空間的不整合を処理し,部分特異的かつ日陰制御可能なメイク転送を実現するための詳細なメイク転送結果を生成する。
実験の結果,SARA法は既存の手法よりも優れており,2つの公開データセット上での最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2023-11-28T14:46:51Z) - LC-NeRF: Local Controllable Face Generation in Neural Randiance Field [55.54131820411912]
LC-NeRFは、ローカルリージョンジェネレータモジュールと空間認識融合モジュールで構成される。
本手法は,最先端の顔編集法よりも局所的な編集が優れている。
また,テキスト駆動型顔画像編集など,下流のタスクでもよく機能する。
論文 参考訳(メタデータ) (2023-02-19T05:50:08Z) - BeautyREC: Robust, Efficient, and Content-preserving Makeup Transfer [73.39598356799974]
本稿では,Robust,Efficient,Component-specific makeup transfer法(略して BeautyREC)を提案する。
参照画像のメイクスタイルを直接対応するコンポーネントに転送するコンポーネント固有の対応。
補助として、Transformerの長距離視覚依存性を導入して、効率的なグローバルメイク転送を実現する。
論文 参考訳(メタデータ) (2022-12-12T12:38:27Z) - FEAT: Face Editing with Attention [70.89233432407305]
StyleGAN ジェネレータ上に構築し,顔の操作を意図した領域に集中させる手法を提案する。
編集された画像の生成中、アテンションマップは、元の特徴と修正された特徴とのブレンドをガイドするマスクとして機能する。
論文 参考訳(メタデータ) (2022-02-06T06:07:34Z) - PSGAN++: Robust Detail-Preserving Makeup Transfer and Removal [176.47249346856393]
PSGAN++は、細部保存メイク転送と効果的なメイク除去の両方を実行することができる。
PSGAN++はメイクアップ・ディスティル・ネットワークを使用してメイクアップ情報を抽出する。
PSGAN++は化粧品の除去のためにアイデンティティ・ディスティル・ネットワーク(Identity Distill Network)を適用し、ウィットメイクアップ画像のID情報をアイデンティティ・マトリックスに埋め込む。
論文 参考訳(メタデータ) (2021-05-26T04:37:57Z) - Facial Attribute Transformers for Precise and Robust Makeup Transfer [79.41060385695977]
高品質な化粧品転写のための新しい顔属性変換器(FAT)とその変種空間FATを提案する。
fatは、ソースの顔と参照顔の間の意味的対応とインタラクションをモデル化し、その顔属性を正確に推定し、転送することができる。
また、薄いプレートスプライン(TPS)をFATに統合し、色やテクスチャに加えて幾何学的属性を転送できる最初の方法である空間FATを作成します。
論文 参考訳(メタデータ) (2021-04-07T03:39:02Z) - Lipstick ain't enough: Beyond Color Matching for In-the-Wild Makeup
Transfer [20.782984081934213]
上記のすべてのメークコンポーネントを扱える総合的なメークトランスファーフレームワークを提案します。
改良されたカラー転送ブランチと新しいパターン転送ブランチで構成され、すべてのメイクアップ特性を学習する。
私達のフレームワークはライトおよび極度の構造の様式の芸術の性能の状態を達成します。
論文 参考訳(メタデータ) (2021-04-05T12:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。