論文の概要: Towards High-Fidelity, Identity-Preserving Real-Time Makeup Transfer: Decoupling Style Generation
- arxiv url: http://arxiv.org/abs/2509.02445v1
- Date: Tue, 02 Sep 2025 15:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.090161
- Title: Towards High-Fidelity, Identity-Preserving Real-Time Makeup Transfer: Decoupling Style Generation
- Title(参考訳): 高忠実でアイデンティティを保ったリアルタイムメイクアップ転送を目指して:デカップリングスタイルの生成
- Authors: Lydia Kin Ching Chau, Zhi Yu, Ruo Wei Jiang,
- Abstract要約: リアルタイムな仮想メイク試行のための新しいフレームワークを提案する。
堅牢な時間的整合性を持つ高忠実でアイデンティティ保存性化粧品の転写を実現する。
- 参考スコア(独自算出の注目度): 10.030819778997836
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a novel framework for real-time virtual makeup try-on that achieves high-fidelity, identity-preserving cosmetic transfer with robust temporal consistency. In live makeup transfer applications, it is critical to synthesize temporally coherent results that accurately replicate fine-grained makeup and preserve user's identity. However, existing methods often struggle to disentangle semitransparent cosmetics from skin tones and other identify features, causing identity shifts and raising fairness concerns. Furthermore, current methods lack real-time capabilities and fail to maintain temporal consistency, limiting practical adoption. To address these challenges, we decouple makeup transfer into two steps: transparent makeup mask extraction and graphics-based mask rendering. After the makeup extraction step, the makeup rendering can be performed in real time, enabling live makeup try-on. Our makeup extraction model trained on pseudo-ground-truth data generated via two complementary methods: a graphics-based rendering pipeline and an unsupervised k-means clustering approach. To further enhance transparency estimation and color fidelity, we propose specialized training objectives, including alpha-weighted reconstruction and lip color losses. Our method achieves robust makeup transfer across diverse poses, expressions, and skin tones while preserving temporal smoothness. Extensive experiments demonstrate that our approach outperforms existing baselines in capturing fine details, maintaining temporal stability, and preserving identity integrity.
- Abstract(参考訳): 本稿では,リアルタイムな仮想メイク試行のための新しいフレームワークを提案する。
ライブメイク転送アプリケーションでは, 微粒なメイクを正確に再現し, ユーザのアイデンティティを保ちながら, 時間的コヒーレントな結果を合成することが重要である。
しかし、既存の方法では、半透明な化粧品を皮膚のトーンや他の特徴から切り離すことに苦慮し、アイデンティティーシフトを引き起こし、公平さを懸念する。
さらに、現在のメソッドにはリアルタイム機能がなく、時間的一貫性の維持に失敗し、実践的な採用を制限している。
これらの課題に対処するため,透明なメイクマスク抽出とグラフィックベースのマスクレンダリングの2つのステップにメークアップを分離する。
メイクアップ抽出工程後、メイクアップをリアルタイムで行うことができ、ライブメイクアップ試行が可能となる。
化粧品抽出モデルは,グラフィックベースのレンダリングパイプラインと教師なしk平均クラスタリングアプローチの2つの補完手法を用いて,擬似地下構造データに基づいて訓練された。
透明度推定と色忠実度をより高めるために,アルファ重み付き再構成や唇色損失を含む特別な訓練目標を提案する。
本手法は, 時間的滑らかさを維持しつつ, 多様なポーズ, 表情, 肌のトーンに頑健なメイクアップ転送を実現する。
大規模な実験により、我々のアプローチは、細部を捉えること、時間的安定性を維持すること、アイデンティティの整合性を維持することにおいて、既存のベースラインよりも優れていることが示された。
関連論文リスト
- FLUX-Makeup: High-Fidelity, Identity-Consistent, and Robust Makeup Transfer via Diffusion Transformer [20.199540657879037]
FLUX-Makeupは、高忠実で、アイデンティティに一貫性があり、堅牢なメイクアップ・トランスファー・フレームワークである。
提案手法では,ソース参照画像ペアを直接利用して転送性能を向上する。
FLUX-Makeupは最先端のパフォーマンスを実現し、さまざまなシナリオで強い堅牢性を示す。
論文 参考訳(メタデータ) (2025-08-07T06:42:40Z) - FFHQ-Makeup: Paired Synthetic Makeup Dataset with Facial Consistency Across Multiple Styles [1.4680035572775534]
FFHQ-Makeupは高品質な合成化粧データセットで、それぞれのアイデンティティと複数のメイクスタイルをペアリングする。
私たちの知る限りでは、メークアップデータセットの構築に特化している最初の作品です。
論文 参考訳(メタデータ) (2025-08-05T09:16:43Z) - AvatarMakeup: Realistic Makeup Transfer for 3D Animatable Head Avatars [89.31582684550723]
AvatarMakeupは、アニメーションを通して最先端のメイクアップ転送品質と一貫性を達成する。
コヒーレント複製は、生成した化粧画像中の平均的な顔属性を復号することで、グローバルな紫外線マップを最適化する。
実験によると、AvatarMakeupはアニメーションを通して、最先端のメイクアップの質と一貫性を実現する。
論文 参考訳(メタデータ) (2025-07-03T08:26:57Z) - Personalized Face Inpainting with Diffusion Models by Parallel Visual
Attention [55.33017432880408]
本稿では,パラレル視覚注意(PVA, Parallel Visual Attention, PVA)と拡散モデルとの併用による塗装結果の改善を提案する。
我々はCelebAHQ-IDIで注目モジュールとIDエンコーダをトレーニングする。
実験により, PVAは顔の塗り絵と顔の塗り絵の両面において, 言語指導タスクと相容れない同一性を持つことが示された。
論文 参考訳(メタデータ) (2023-12-06T15:39:03Z) - DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis [25.936764522125703]
DRAN(Detailed Region-Adaptive Normalization)と呼ばれる新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
我々は、幅広い複雑なメイクスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
論文 参考訳(メタデータ) (2021-09-29T16:19:37Z) - Cosmetic-Aware Makeup Cleanser [109.41917954315784]
顔認証は、一対の顔画像が同一のアイデンティティに属するかどうかを判定することを目的としている。
最近の研究では、顔の化粧が検証性能に悪影響を及ぼすことが明らかになっている。
本稿では,異なるポーズや表情で顔の化粧を除去する意味認識型化粧清浄器(SAMC)を提案する。
論文 参考訳(メタデータ) (2020-04-20T09:18:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。