論文の概要: AvatarMakeup: Realistic Makeup Transfer for 3D Animatable Head Avatars
- arxiv url: http://arxiv.org/abs/2507.02419v1
- Date: Thu, 03 Jul 2025 08:26:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.973168
- Title: AvatarMakeup: Realistic Makeup Transfer for 3D Animatable Head Avatars
- Title(参考訳): AvatarMakeup: 3次元アニマタブルヘッドアバターのリアルメイクアップトランスファー
- Authors: Yiming Zhong, Xiaolin Zhang, Ligang Liu, Yao Zhao, Yunchao Wei,
- Abstract要約: AvatarMakeupは、アニメーションを通して最先端のメイクアップ転送品質と一貫性を達成する。
コヒーレント複製は、生成した化粧画像中の平均的な顔属性を復号することで、グローバルな紫外線マップを最適化する。
実験によると、AvatarMakeupはアニメーションを通して、最先端のメイクアップの質と一貫性を実現する。
- 参考スコア(独自算出の注目度): 89.31582684550723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Similar to facial beautification in real life, 3D virtual avatars require personalized customization to enhance their visual appeal, yet this area remains insufficiently explored. Although current 3D Gaussian editing methods can be adapted for facial makeup purposes, these methods fail to meet the fundamental requirements for achieving realistic makeup effects: 1) ensuring a consistent appearance during drivable expressions, 2) preserving the identity throughout the makeup process, and 3) enabling precise control over fine details. To address these, we propose a specialized 3D makeup method named AvatarMakeup, leveraging a pretrained diffusion model to transfer makeup patterns from a single reference photo of any individual. We adopt a coarse-to-fine idea to first maintain the consistent appearance and identity, and then to refine the details. In particular, the diffusion model is employed to generate makeup images as supervision. Due to the uncertainties in diffusion process, the generated images are inconsistent across different viewpoints and expressions. Therefore, we propose a Coherent Duplication method to coarsely apply makeup to the target while ensuring consistency across dynamic and multiview effects. Coherent Duplication optimizes a global UV map by recoding the averaged facial attributes among the generated makeup images. By querying the global UV map, it easily synthesizes coherent makeup guidance from arbitrary views and expressions to optimize the target avatar. Given the coarse makeup avatar, we further enhance the makeup by incorporating a Refinement Module into the diffusion model to achieve high makeup quality. Experiments demonstrate that AvatarMakeup achieves state-of-the-art makeup transfer quality and consistency throughout animation.
- Abstract(参考訳): 実生活における顔の美化と同様に、3D仮想アバターは視覚的魅力を高めるためにパーソナライズされたカスタマイズを必要とするが、この領域はまだ十分に調査されていない。
現在の3Dガウス編集法は顔のメイクに適応できるが、現実的なメイク効果を達成するための基本的な要件を満たしていない。
1) 乾式中に一貫した外観を確保すること。
2 化粧工程を通じて同一性を維持すること、及び
3)細部を正確に制御すること。
そこで本研究では,AvatarMakeupという特殊な3次元メイクアップ手法を提案する。
私たちはまず、一貫した外観とアイデンティティを維持し、それから詳細を洗練するために、粗大できめ細かなアイデアを採用しています。
特に, この拡散モデルを用いて化粧画像の生成を監督する。
拡散過程の不確実性のため、生成された画像は異なる視点や表現で矛盾する。
そこで本研究では,動的およびマルチビュー効果の整合性を確保しつつ,目標に対して粗い化粧を施すコヒーレント複製法を提案する。
Coherent Duplicationは、生成した化粧画像中の平均的な顔属性を復号することで、グローバルな紫外線マップを最適化する。
グローバルなUVマップをクエリすることで、任意のビューや表現から一貫性のあるメイクアップガイダンスを簡単に合成し、ターゲットアバターを最適化する。
粗いメークアップアバターを考慮に入れ, 拡散モデルにRefinement Moduleを組み込むことにより, メイクアップの質を高める。
実験によると、AvatarMakeupはアニメーションを通して、最先端のメイクアップの質と一貫性を実現する。
関連論文リスト
- BeautyBank: Encoding Facial Makeup in Latent Space [2.113770213797994]
素顔とメイク顔のパターン特徴をアンタングルする新しいメイクアップエンコーダであるBeautyBankを提案する。
本手法は, 化粧品の形状を高次元空間にエンコードし, 化粧品の復元に必要な細部を保存する。
また, 詳細な化粧品の保存性を高めるために, プログレッシブ・メイクアップ・チューニング(PMT)戦略を提案する。
論文 参考訳(メタデータ) (2024-11-18T01:52:31Z) - Gorgeous: Create Your Desired Character Facial Makeup from Any Ideas [9.604390113485834]
$Gorgeous$は、新しい拡散ベースのメイクアップメソッドである。
参照画像に顔が存在する必要はない。
$Gorgeous$は、選択したテーマの参照画像にインスパイアされた、特徴的な顔のメイクを効果的に生成できる。
論文 参考訳(メタデータ) (2024-04-22T07:40:53Z) - Stable-Makeup: When Real-World Makeup Transfer Meets Diffusion Model [15.380297080210559]
現在のメークアップ転送方式は単純なメイクスタイルに限られており、現実のシナリオでは適用が困難である。
本研究では,多様な現実世界の化粧品を堅牢に転写できる新しい拡散型化粧品転写法であるStable-Makeupを紹介する。
論文 参考訳(メタデータ) (2024-03-12T15:53:14Z) - Makeup Extraction of 3D Representation via Illumination-Aware Image
Decomposition [4.726777092009553]
本稿では,1枚の化粧像から3次元顔モデルのための化粧品を抽出する最初の方法を提案する。
粗い材料を抽出するために, 回帰ベースの逆レンダリングにより, 3次元形態素モデルの強みを生かした。
本手法は3次元顔モデルだけでなく2次元顔画像にも様々な用途を提供する。
論文 参考訳(メタデータ) (2023-02-26T09:48:57Z) - DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis [25.936764522125703]
DRAN(Detailed Region-Adaptive Normalization)と呼ばれる新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
我々は、幅広い複雑なメイクスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
論文 参考訳(メタデータ) (2021-09-29T16:19:37Z) - PSGAN++: Robust Detail-Preserving Makeup Transfer and Removal [176.47249346856393]
PSGAN++は、細部保存メイク転送と効果的なメイク除去の両方を実行することができる。
PSGAN++はメイクアップ・ディスティル・ネットワークを使用してメイクアップ情報を抽出する。
PSGAN++は化粧品の除去のためにアイデンティティ・ディスティル・ネットワーク(Identity Distill Network)を適用し、ウィットメイクアップ画像のID情報をアイデンティティ・マトリックスに埋め込む。
論文 参考訳(メタデータ) (2021-05-26T04:37:57Z) - SOGAN: 3D-Aware Shadow and Occlusion Robust GAN for Makeup Transfer [68.38955698584758]
3D-Aware Shadow and Occlusion Robust GAN (SOGAN) と呼ばれる新しいメイクアップ転送手法を提案する。
最初に3D顔モデルにフィットし、顔を形とテクスチャに切り離します。
テクスチャブランチでは、テクスチャをuv空間にマッピングし、uvテクスチャ生成器を設計してメークアップを転送する。
論文 参考訳(メタデータ) (2021-04-21T14:48:49Z) - Cosmetic-Aware Makeup Cleanser [109.41917954315784]
顔認証は、一対の顔画像が同一のアイデンティティに属するかどうかを判定することを目的としている。
最近の研究では、顔の化粧が検証性能に悪影響を及ぼすことが明らかになっている。
本稿では,異なるポーズや表情で顔の化粧を除去する意味認識型化粧清浄器(SAMC)を提案する。
論文 参考訳(メタデータ) (2020-04-20T09:18:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。