論文の概要: Supervised makeup transfer with a curated dataset: Decoupling identity and makeup features for enhanced transformation
- arxiv url: http://arxiv.org/abs/2602.00729v1
- Date: Sat, 31 Jan 2026 13:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.360396
- Title: Supervised makeup transfer with a curated dataset: Decoupling identity and makeup features for enhanced transformation
- Title(参考訳): キュレートされたデータセットによるメイクアップの促進:アイデンティティとメイクの特徴の分離と変換の強化
- Authors: Qihe Pan, Yiming Wu, Xing Zhao, Liang Xie, Guodao Sun, Ronghua Liang,
- Abstract要約: 拡散モデルは、生成タスクにおいて大きな進歩を示しており、化粧転移のためのGANベースのアプローチのより安定した代替手段を提供する。
既存の手法では、データセットの制限、アイデンティティとメイクの特徴の不整合、制御性の弱さに悩まされることが多い。
我々は, 合成, 現実的, フィルタされたサンプルを組み合わせて, 多様性と忠実性を向上する列車生成・フィルタ・リトラクション戦略を用いて, 高品質なモデルを構築した。
第3に,ユーザが目や唇,顔の化粧を自然言語のプロンプトで修正できる,きめ細かな領域特異的制御を実現するためのテキスト誘導機構を提案する。
- 参考スコア(独自算出の注目度): 21.71636658071446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have recently shown strong progress in generative tasks, offering a more stable alternative to GAN-based approaches for makeup transfer. Existing methods often suffer from limited datasets, poor disentanglement between identity and makeup features, and weak controllability. To address these issues, we make three contributions. First, we construct a curated high-quality dataset using a train-generate-filter-retrain strategy that combines synthetic, realistic, and filtered samples to improve diversity and fidelity. Second, we design a diffusion-based framework that disentangles identity and makeup features, ensuring facial structure and skin tone are preserved while applying accurate and diverse cosmetic styles. Third, we propose a text-guided mechanism that allows fine-grained and region-specific control, enabling users to modify eyes, lips, or face makeup with natural language prompts. Experiments on benchmarks and real-world scenarios demonstrate improvements in fidelity, identity preservation, and flexibility. Examples of our dataset can be found at: https://makeup-adapter.github.io.
- Abstract(参考訳): 拡散モデルは最近、生成タスクの進歩を強く示しており、メークアップ転送のためのGANベースのアプローチより安定した代替手段を提供している。
既存の手法では、データセットの制限、アイデンティティとメイクの特徴の不整合、制御性の弱さに悩まされることが多い。
これらの問題に対処するため、私たちは3つのコントリビューションを行います。
まず, 合成, 現実的, フィルタされたサンプルを組み合わせて, 多様性と忠実性を向上する列車生成・フィルタ・リトラクション戦略を用いて, 高品質なモデルを構築した。
第2に, 同一性や化粧品の特徴を解消し, 顔の構造や肌のトーンを確実に保ちつつ, 正確かつ多様な化粧品のスタイルを適用した拡散型フレームワークを設計する。
第3に,ユーザが目や唇,顔の化粧を自然言語のプロンプトで修正できる,きめ細かな領域特異的制御を実現するためのテキスト誘導機構を提案する。
ベンチマークと実世界のシナリオの実験は、忠実さ、アイデンティティの保存、柔軟性の改善を実証している。
私たちのデータセットの例は、 https://makeup-adapter.github.io.comで確認できます。
関連論文リスト
- Optimizing ID Consistency in Multimodal Large Models: Facial Restoration via Alignment, Entanglement, and Disentanglement [54.199726425201895]
大規模モデルのマルチモーダル編集は、様々なタスクにまたがる強力な編集機能を示している。
現在の顔認証保存法は、顔認証と編集済み要素IPの整合性回復に苦慮している。
そこで我々は,頑健なアイデンティティ特異的顔復元のためのアライメント・ディスタングルメント・アンタングルメント・フレームワークであるEditedIDを提案する。
論文 参考訳(メタデータ) (2026-02-21T08:24:42Z) - Towards High-Fidelity, Identity-Preserving Real-Time Makeup Transfer: Decoupling Style Generation [10.030819778997836]
リアルタイムな仮想メイク試行のための新しいフレームワークを提案する。
堅牢な時間的整合性を持つ高忠実でアイデンティティ保存性化粧品の転写を実現する。
論文 参考訳(メタデータ) (2025-09-02T15:52:56Z) - From Large Angles to Consistent Faces: Identity-Preserving Video Generation via Mixture of Facial Experts [69.44297222099175]
顔の特徴の異なるが相互に強化された側面を捉えた顔専門家の混合(MoFE)を導入する。
データセットの制限を軽減するため、私たちは、Face ConstraintsとIdentity Consistencyという2つの重要な側面を中心としたデータ処理パイプラインを調整しました。
我々は、既存のオープンソースヒューマンビデオデータセットからLFA(Large Face Angles)データセットをキュレートし、洗練しました。
論文 参考訳(メタデータ) (2025-08-13T04:10:16Z) - FLUX-Makeup: High-Fidelity, Identity-Consistent, and Robust Makeup Transfer via Diffusion Transformer [20.199540657879037]
FLUX-Makeupは、高忠実で、アイデンティティに一貫性があり、堅牢なメイクアップ・トランスファー・フレームワークである。
提案手法では,ソース参照画像ペアを直接利用して転送性能を向上する。
FLUX-Makeupは最先端のパフォーマンスを実現し、さまざまなシナリオで強い堅牢性を示す。
論文 参考訳(メタデータ) (2025-08-07T06:42:40Z) - FFHQ-Makeup: Paired Synthetic Makeup Dataset with Facial Consistency Across Multiple Styles [1.4680035572775534]
FFHQ-Makeupは高品質な合成化粧データセットで、それぞれのアイデンティティと複数のメイクスタイルをペアリングする。
私たちの知る限りでは、メークアップデータセットの構築に特化している最初の作品です。
論文 参考訳(メタデータ) (2025-08-05T09:16:43Z) - AvatarMakeup: Realistic Makeup Transfer for 3D Animatable Head Avatars [89.31582684550723]
AvatarMakeupは、アニメーションを通して最先端のメイクアップ転送品質と一貫性を達成する。
コヒーレント複製は、生成した化粧画像中の平均的な顔属性を復号することで、グローバルな紫外線マップを最適化する。
実験によると、AvatarMakeupはアニメーションを通して、最先端のメイクアップの質と一貫性を実現する。
論文 参考訳(メタデータ) (2025-07-03T08:26:57Z) - SHMT: Self-supervised Hierarchical Makeup Transfer via Latent Diffusion Models [29.430749386234414]
本稿では,遅延拡散モデルを用いた自己教師付き階層的メイクアップトランスファー(SHMT)手法を提案する。
SHMTは自己教師型の方法で動作し、擬似ペアデータの誤認から解放される。
様々なメイクスタイルに対応するため、階層的なテクスチャの詳細はラプラシアのピラミッドを通して不正確である。
論文 参考訳(メタデータ) (2024-12-15T05:29:07Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - EleGANt: Exquisite and Locally Editable GAN for Makeup Transfer [13.304362849679391]
EleGANt (EleGANt) を用いたエキサイティングで局所的に編集可能なGANを提案する。
顔の特徴をピラミッドの特徴マップにエンコードし、高周波情報を保存する。
EleGANtは、機能マップの対応する編集によって任意の領域でカスタマイズされたローカル編集を実現する最初の方法である。
論文 参考訳(メタデータ) (2022-07-20T11:52:07Z) - DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis [25.936764522125703]
DRAN(Detailed Region-Adaptive Normalization)と呼ばれる新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
我々は、幅広い複雑なメイクスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
論文 参考訳(メタデータ) (2021-09-29T16:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。