論文の概要: Supervised makeup transfer with a curated dataset: Decoupling identity and makeup features for enhanced transformation
- arxiv url: http://arxiv.org/abs/2602.00729v1
- Date: Sat, 31 Jan 2026 13:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.360396
- Title: Supervised makeup transfer with a curated dataset: Decoupling identity and makeup features for enhanced transformation
- Title(参考訳): キュレートされたデータセットによるメイクアップの促進:アイデンティティとメイクの特徴の分離と変換の強化
- Authors: Qihe Pan, Yiming Wu, Xing Zhao, Liang Xie, Guodao Sun, Ronghua Liang,
- Abstract要約: 拡散モデルは、生成タスクにおいて大きな進歩を示しており、化粧転移のためのGANベースのアプローチのより安定した代替手段を提供する。
既存の手法では、データセットの制限、アイデンティティとメイクの特徴の不整合、制御性の弱さに悩まされることが多い。
我々は, 合成, 現実的, フィルタされたサンプルを組み合わせて, 多様性と忠実性を向上する列車生成・フィルタ・リトラクション戦略を用いて, 高品質なモデルを構築した。
第3に,ユーザが目や唇,顔の化粧を自然言語のプロンプトで修正できる,きめ細かな領域特異的制御を実現するためのテキスト誘導機構を提案する。
- 参考スコア(独自算出の注目度): 21.71636658071446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have recently shown strong progress in generative tasks, offering a more stable alternative to GAN-based approaches for makeup transfer. Existing methods often suffer from limited datasets, poor disentanglement between identity and makeup features, and weak controllability. To address these issues, we make three contributions. First, we construct a curated high-quality dataset using a train-generate-filter-retrain strategy that combines synthetic, realistic, and filtered samples to improve diversity and fidelity. Second, we design a diffusion-based framework that disentangles identity and makeup features, ensuring facial structure and skin tone are preserved while applying accurate and diverse cosmetic styles. Third, we propose a text-guided mechanism that allows fine-grained and region-specific control, enabling users to modify eyes, lips, or face makeup with natural language prompts. Experiments on benchmarks and real-world scenarios demonstrate improvements in fidelity, identity preservation, and flexibility. Examples of our dataset can be found at: https://makeup-adapter.github.io.
- Abstract(参考訳): 拡散モデルは最近、生成タスクの進歩を強く示しており、メークアップ転送のためのGANベースのアプローチより安定した代替手段を提供している。
既存の手法では、データセットの制限、アイデンティティとメイクの特徴の不整合、制御性の弱さに悩まされることが多い。
これらの問題に対処するため、私たちは3つのコントリビューションを行います。
まず, 合成, 現実的, フィルタされたサンプルを組み合わせて, 多様性と忠実性を向上する列車生成・フィルタ・リトラクション戦略を用いて, 高品質なモデルを構築した。
第2に, 同一性や化粧品の特徴を解消し, 顔の構造や肌のトーンを確実に保ちつつ, 正確かつ多様な化粧品のスタイルを適用した拡散型フレームワークを設計する。
第3に,ユーザが目や唇,顔の化粧を自然言語のプロンプトで修正できる,きめ細かな領域特異的制御を実現するためのテキスト誘導機構を提案する。
ベンチマークと実世界のシナリオの実験は、忠実さ、アイデンティティの保存、柔軟性の改善を実証している。
私たちのデータセットの例は、 https://makeup-adapter.github.io.comで確認できます。
関連論文リスト
- Towards High-Fidelity, Identity-Preserving Real-Time Makeup Transfer: Decoupling Style Generation [10.030819778997836]
リアルタイムな仮想メイク試行のための新しいフレームワークを提案する。
堅牢な時間的整合性を持つ高忠実でアイデンティティ保存性化粧品の転写を実現する。
論文 参考訳(メタデータ) (2025-09-02T15:52:56Z) - From Large Angles to Consistent Faces: Identity-Preserving Video Generation via Mixture of Facial Experts [69.44297222099175]
顔の特徴の異なるが相互に強化された側面を捉えた顔専門家の混合(MoFE)を導入する。
データセットの制限を軽減するため、私たちは、Face ConstraintsとIdentity Consistencyという2つの重要な側面を中心としたデータ処理パイプラインを調整しました。
我々は、既存のオープンソースヒューマンビデオデータセットからLFA(Large Face Angles)データセットをキュレートし、洗練しました。
論文 参考訳(メタデータ) (2025-08-13T04:10:16Z) - FLUX-Makeup: High-Fidelity, Identity-Consistent, and Robust Makeup Transfer via Diffusion Transformer [20.199540657879037]
FLUX-Makeupは、高忠実で、アイデンティティに一貫性があり、堅牢なメイクアップ・トランスファー・フレームワークである。
提案手法では,ソース参照画像ペアを直接利用して転送性能を向上する。
FLUX-Makeupは最先端のパフォーマンスを実現し、さまざまなシナリオで強い堅牢性を示す。
論文 参考訳(メタデータ) (2025-08-07T06:42:40Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis [25.936764522125703]
DRAN(Detailed Region-Adaptive Normalization)と呼ばれる新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
我々は、幅広い複雑なメイクスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
論文 参考訳(メタデータ) (2021-09-29T16:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。