論文の概要: Facial Attribute Transformers for Precise and Robust Makeup Transfer
- arxiv url: http://arxiv.org/abs/2104.02894v1
- Date: Wed, 7 Apr 2021 03:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 22:51:29.356257
- Title: Facial Attribute Transformers for Precise and Robust Makeup Transfer
- Title(参考訳): 精密かつロバストなメイクアップトランスフォーメーションのための顔属性トランスフォーマー
- Authors: Zhaoyi Wan, Haoran Chen, Jielei Zhang, Wentao Jiang, Cong Yao, Jiebo
Luo
- Abstract要約: 高品質な化粧品転写のための新しい顔属性変換器(FAT)とその変種空間FATを提案する。
fatは、ソースの顔と参照顔の間の意味的対応とインタラクションをモデル化し、その顔属性を正確に推定し、転送することができる。
また、薄いプレートスプライン(TPS)をFATに統合し、色やテクスチャに加えて幾何学的属性を転送できる最初の方法である空間FATを作成します。
- 参考スコア(独自算出の注目度): 79.41060385695977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of makeup transfer, which aims at
transplanting the makeup from the reference face to the source face while
preserving the identity of the source. Existing makeup transfer methods have
made notable progress in generating realistic makeup faces, but do not perform
well in terms of color fidelity and spatial transformation. To tackle these
issues, we propose a novel Facial Attribute Transformer (FAT) and its variant
Spatial FAT for high-quality makeup transfer. Drawing inspirations from the
Transformer in NLP, FAT is able to model the semantic correspondences and
interactions between the source face and reference face, and then precisely
estimate and transfer the facial attributes. To further facilitate shape
deformation and transformation of facial parts, we also integrate thin plate
splines (TPS) into FAT, thus creating Spatial FAT, which is the first method
that can transfer geometric attributes in addition to color and texture.
Extensive qualitative and quantitative experiments demonstrate the
effectiveness and superiority of our proposed FATs in the following aspects:
(1) ensuring high-fidelity color transfer; (2) allowing for geometric
transformation of facial parts; (3) handling facial variations (such as poses
and shadows) and (4) supporting high-resolution face generation.
- Abstract(参考訳): 本稿では,ソースの同一性を保ちながら,基準面からソース面へのメイクを移植することを目的としたメークアップ転送の問題に対処する。
既存のメイク転写法は, 現実的なメイク顔の生成において顕著な進歩を遂げているが, 色忠実度や空間変換の面では, 良好な性能は得られていない。
そこで本稿では,新しい顔属性トランスフォーマー(fat)と,その異種空間脂肪を用いた高品質メイクアップトランスフォーメーションを提案する。
NLPのTransformerからインスピレーションを得たFATは、元の顔と参照顔の間の意味的対応と相互作用をモデル化し、顔の特徴を正確に推定し、転送することができる。
さらに, 顔の形状変形や変形を容易にするため, 薄板スプライン(TPS)をFATに統合し, 色やテクスチャに加え, 幾何学的特性を伝達する最初の手法である空間的FATを作成する。
広汎な質的および定量的な実験は,(1)高忠実度色移動の確保,(2)顔の幾何学的変換,(3)顔のバリエーション(ポーズや影など)の取り扱い,(4)高分解能顔生成支援の両面において,提案するFATの有効性と優位性を示す。
関連論文リスト
- DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Face Transformer: Towards High Fidelity and Accurate Face Swapping [54.737909435708936]
Face swappingは、ソース顔の同一性とターゲット顔の属性を融合させるスワップ画像を生成することを目的としている。
本稿では,顔の同一性と対象属性を同時に正確に保存できる新しい顔交換ネットワークであるFace Transformerを提案する。
論文 参考訳(メタデータ) (2023-04-05T15:51:44Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - FaceFormer: Scale-aware Blind Face Restoration with Transformers [18.514630131883536]
そこで我々は,顔の特徴回復をスケール・アウェア・トランスフォーメーションとして定式化する,FaceFormerという新しい顔修復フレームワークを提案する。
提案手法は, 合成データセットを用いて, 現在の最先端画像よりも, 自然な低品質画像を一般化する。
論文 参考訳(メタデータ) (2022-07-20T10:08:34Z) - FaceTuneGAN: Face Autoencoder for Convolutional Expression Transfer
Using Neural Generative Adversarial Networks [0.7043489166804575]
顔の識別と表情を分離して符号化する新しい3次元顔モデル表現であるFaceTuneGANを提案する。
本稿では,2次元領域で使用されている画像と画像の変換ネットワークを3次元顔形状に適応させる手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T14:42:03Z) - Disentangled Lifespan Face Synthesis [100.29058545878341]
ライフスパン顔合成(LFS)モデルは、1つのスナップショットのみを基準として、人の人生全体の写真リアル顔画像のセットを作成することを目的としている。
対象年齢コードから生成された顔画像は, 形状やテクスチャの生鮮やかな変換によって, 年齢に敏感に反映されることが期待される。
これは、エンコーダから形状、テクスチャ、アイデンティティの特徴を別々に抽出することで達成される。
論文 参考訳(メタデータ) (2021-08-05T22:33:14Z) - Towards Real-World Blind Face Restoration with Generative Facial Prior [19.080349401153097]
盲目の顔の復元は通常、現実的で忠実な詳細を復元するために、顔の形状の事前または参照などの顔の優先度に依存します。
本稿では,前訓練顔GANにカプセル化される多彩で多様な前駆体を利用してブラインドフェイス修復を行うGFP-GANを提案する。
本手法は,合成データと実世界データの両方において,先行技術よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T17:54:38Z) - Transforming Facial Weight of Real Images by Editing Latent Space of
StyleGAN [9.097538101642192]
本稿では,GAN(Generative Adversarial Networks)の潜伏空間に符号化された意味的顔属性を活用することにより,入力顔画像の顔重量をより薄くあるいは重くするために変換する逆・エディットフレームワークを提案する。
我々のフレームワークは、大量のラベル付き顔画像をスクラッチからトレーニングすることなく、高品質でリアルな顔重み変換を実現することを実証的に示している。
われわれの枠組みは、身近な行動が外見に与える影響を可視化することによって、個人に健康的な食品選択を動機付けるための介入として活用することができる。
論文 参考訳(メタデータ) (2020-11-05T01:45:18Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。