論文の概要: BeautyREC: Robust, Efficient, and Content-preserving Makeup Transfer
- arxiv url: http://arxiv.org/abs/2212.05855v1
- Date: Mon, 12 Dec 2022 12:38:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:57:34.781828
- Title: BeautyREC: Robust, Efficient, and Content-preserving Makeup Transfer
- Title(参考訳): BeautyREC:ロバスト、効率的、およびコンテンツ保存メイクアップ転送
- Authors: Qixin Yan and Chunle Guo and Jixin Zhao and Yuekun Dai and Chen Change
Loy and Chongyi Li
- Abstract要約: 本稿では,Robust,Efficient,Component-specific makeup transfer法(略して BeautyREC)を提案する。
参照画像のメイクスタイルを直接対応するコンポーネントに転送するコンポーネント固有の対応。
補助として、Transformerの長距離視覚依存性を導入して、効率的なグローバルメイク転送を実現する。
- 参考スコア(独自算出の注目度): 73.39598356799974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a Robust, Efficient, and Component-specific makeup
transfer method (abbreviated as BeautyREC). A unique departure from prior
methods that leverage global attention, simply concatenate features, or
implicitly manipulate features in latent space, we propose a component-specific
correspondence to directly transfer the makeup style of a reference image to
the corresponding components (e.g., skin, lips, eyes) of a source image, making
elaborate and accurate local makeup transfer. As an auxiliary, the long-range
visual dependencies of Transformer are introduced for effective global makeup
transfer. Instead of the commonly used cycle structure that is complex and
unstable, we employ a content consistency loss coupled with a content encoder
to implement efficient single-path makeup transfer. The key insights of this
study are modeling component-specific correspondence for local makeup transfer,
capturing long-range dependencies for global makeup transfer, and enabling
efficient makeup transfer via a single-path structure. We also contribute
BeautyFace, a makeup transfer dataset to supplement existing datasets. This
dataset contains 3,000 faces, covering more diverse makeup styles, face poses,
and races. Each face has annotated parsing map. Extensive experiments
demonstrate the effectiveness of our method against state-of-the-art methods.
Besides, our method is appealing as it is with only 1M parameters,
outperforming the state-of-the-art methods (BeautyGAN: 8.43M, PSGAN: 12.62M,
SCGAN: 15.30M, CPM: 9.24M, SSAT: 10.48M).
- Abstract(参考訳): 本稿では,Robust,Efficient and Component-specific makeup transfer method (BeautyREC)を提案する。
グローバル注意を活用し、単に特徴を結合したり、潜在空間で特徴を暗黙的に操作したりする先行手法からのユニークな脱却として、参照画像のメイクアップスタイルを、ソース画像の対応するコンポーネント(例えば、肌、唇、目)に直接転送し、精巧で正確な局所メイクアップ転送を行うコンポーネント固有対応を提案する。
補助として、Transformerの長距離視覚依存性を導入して、効率的なグローバルメイク転送を実現する。
複雑で不安定なサイクル構造の代わりに、コンテントエンコーダと組み合わされたコンテンツ一貫性損失を用いて、効率的なシングルパスメイクアップ転送を実現する。
本研究の主な知見は, 局所メイク転送のためのコンポーネント固有対応のモデル化, グローバルメイク転送のための長距離依存関係の取得, シングルパス構造による効率的なメイク転送の実現である。
既存のデータセットを補完するメークアップ転送データセットであるbeautyfaceも提供しています。
このデータセットには3000の顔が含まれ、より多様なメイクスタイル、顔のポーズ、レースをカバーしている。
各顔にはアノテーション付きパースマップがある。
本手法の最先端手法に対する有効性を示す実験を行った。
また,本手法は100Mパラメータのみで,最先端手法(BeautyGAN: 8.43M, PSGAN: 12.62M, SCGAN: 15.30M, CPM: 9.24M, SSAT: 10.48M)より優れている。
関連論文リスト
- Stable-Makeup: When Real-World Makeup Transfer Meets Diffusion Model [35.01727715493926]
現在のメークアップ転送方式は単純なメイクスタイルに限られており、現実のシナリオでは適用が困難である。
本研究では,多様な現実世界の化粧品を堅牢に転写できる新しい拡散型化粧品転写法であるStable-Makeupを紹介する。
論文 参考訳(メタデータ) (2024-03-12T15:53:14Z) - SARA: Controllable Makeup Transfer with Spatial Alignment and Region-Adaptive Normalization [67.90315365909244]
本稿では,空間アライメントと領域適応正規化法(SARA)を提案する。
提案手法は,大規模な空間的不整合を処理し,部分特異的かつ日陰制御可能なメイク転送を実現するための詳細なメイク転送結果を生成する。
実験の結果,SARA法は既存の手法よりも優れており,2つの公開データセット上での最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2023-11-28T14:46:51Z) - EleGANt: Exquisite and Locally Editable GAN for Makeup Transfer [13.304362849679391]
EleGANt (EleGANt) を用いたエキサイティングで局所的に編集可能なGANを提案する。
顔の特徴をピラミッドの特徴マップにエンコードし、高周波情報を保存する。
EleGANtは、機能マップの対応する編集によって任意の領域でカスタマイズされたローカル編集を実現する最初の方法である。
論文 参考訳(メタデータ) (2022-07-20T11:52:07Z) - CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer [58.020470877242865]
我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
論文 参考訳(メタデータ) (2022-07-11T12:09:41Z) - SSAT: A Symmetric Semantic-Aware Transformer Network for Makeup Transfer
and Removal [17.512402192317992]
メークアップ転送と削除を同時に行うためのSSAT(Symmetric Semantic-Aware Transformer)ネットワークを提案する。
SSCFTモジュールと弱い教師付きセマンティックロスが提案され、正確なセマンティック対応の確立をモデル化し促進する。
実験により, より視覚的に正確なメイク転送結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-12-07T11:08:12Z) - PSGAN++: Robust Detail-Preserving Makeup Transfer and Removal [176.47249346856393]
PSGAN++は、細部保存メイク転送と効果的なメイク除去の両方を実行することができる。
PSGAN++はメイクアップ・ディスティル・ネットワークを使用してメイクアップ情報を抽出する。
PSGAN++は化粧品の除去のためにアイデンティティ・ディスティル・ネットワーク(Identity Distill Network)を適用し、ウィットメイクアップ画像のID情報をアイデンティティ・マトリックスに埋め込む。
論文 参考訳(メタデータ) (2021-05-26T04:37:57Z) - Facial Attribute Transformers for Precise and Robust Makeup Transfer [79.41060385695977]
高品質な化粧品転写のための新しい顔属性変換器(FAT)とその変種空間FATを提案する。
fatは、ソースの顔と参照顔の間の意味的対応とインタラクションをモデル化し、その顔属性を正確に推定し、転送することができる。
また、薄いプレートスプライン(TPS)をFATに統合し、色やテクスチャに加えて幾何学的属性を転送できる最初の方法である空間FATを作成します。
論文 参考訳(メタデータ) (2021-04-07T03:39:02Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。