論文の概要: FLUX-Makeup: High-Fidelity, Identity-Consistent, and Robust Makeup Transfer via Diffusion Transformer
- arxiv url: http://arxiv.org/abs/2508.05069v1
- Date: Thu, 07 Aug 2025 06:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 21:11:55.661062
- Title: FLUX-Makeup: High-Fidelity, Identity-Consistent, and Robust Makeup Transfer via Diffusion Transformer
- Title(参考訳): FLUX-Makeup:拡散変換器による高忠実度, 同一性, ロバストなメイクアップ転送
- Authors: Jian Zhu, Shanyuan Liu, Liuzhuozheng Li, Yue Gong, He Wang, Bo Cheng, Yuhang Ma, Liebucha Wu, Xiaoyu Wu, Dawei Leng, Yuhui Yin, Yang Xu,
- Abstract要約: FLUX-Makeupは、高忠実で、アイデンティティに一貫性があり、堅牢なメイクアップ・トランスファー・フレームワークである。
提案手法では,ソース参照画像ペアを直接利用して転送性能を向上する。
FLUX-Makeupは最先端のパフォーマンスを実現し、さまざまなシナリオで強い堅牢性を示す。
- 参考スコア(独自算出の注目度): 20.199540657879037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Makeup transfer aims to apply the makeup style from a reference face to a target face and has been increasingly adopted in practical applications. Existing GAN-based approaches typically rely on carefully designed loss functions to balance transfer quality and facial identity consistency, while diffusion-based methods often depend on additional face-control modules or algorithms to preserve identity. However, these auxiliary components tend to introduce extra errors, leading to suboptimal transfer results. To overcome these limitations, we propose FLUX-Makeup, a high-fidelity, identity-consistent, and robust makeup transfer framework that eliminates the need for any auxiliary face-control components. Instead, our method directly leverages source-reference image pairs to achieve superior transfer performance. Specifically, we build our framework upon FLUX-Kontext, using the source image as its native conditional input. Furthermore, we introduce RefLoRAInjector, a lightweight makeup feature injector that decouples the reference pathway from the backbone, enabling efficient and comprehensive extraction of makeup-related information. In parallel, we design a robust and scalable data generation pipeline to provide more accurate supervision during training. The paired makeup datasets produced by this pipeline significantly surpass the quality of all existing datasets. Extensive experiments demonstrate that FLUX-Makeup achieves state-of-the-art performance, exhibiting strong robustness across diverse scenarios.
- Abstract(参考訳): メイクアップ・トランスファーは、基準面からターゲット面にメイクスタイルを適用することを目的としており、実用的応用が増えている。
既存のGANベースのアプローチは通常、転送品質と顔のアイデンティティの整合性のバランスをとるために慎重に設計された損失関数に依存するが、拡散ベースの手法はアイデンティティを維持するために追加の顔制御モジュールやアルゴリズムに依存することが多い。
しかし、これらの補助成分は余分なエラーを起こす傾向があり、最適下移動の結果をもたらす。
これらの制約を克服するため, FLUX-Makeupは高忠実で, アイデンティティに一貫性があり, 頑健なメイクアップ・トランスファー・フレームワークであり, 補助的なフェイスコントロール・コンポーネントは不要である。
その代わりに、ソース参照画像ペアを直接利用して、転送性能を向上する。
具体的には,FLUX-Kontextをベースとしたフレームワークを構築し,ソースコードをネイティブな条件入力として利用する。
さらに,背骨から基準経路を分離する軽量メイク機能インジェクタであるRefLoRAインジェクタを導入し,メイク関連情報の効率的かつ包括的な抽出を可能にする。
並行して、トレーニング中により正確な監視を提供するために、堅牢でスケーラブルなデータ生成パイプラインを設計します。
このパイプラインによって生成されたペアメイクデータセットは、既存のすべてのデータセットの品質を大幅に上回る。
広範な実験により、FLUX-Makeupは最先端のパフォーマンスを実現し、さまざまなシナリオで強い堅牢性を示すことが示されている。
関連論文リスト
- DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Face Forgery Detection with Elaborate Backbone [50.914676786151574]
Face Forgery Detectionは、デジタル顔が本物か偽物かを決定することを目的としている。
以前のFFDモデルは、偽造の手がかりを表現および抽出するために既存のバックボーンを直接使用していた。
本稿では,実顔データセットを用いた自己教師型学習でVTネットワークを活用することで,バックボーンの事前トレーニングを提案する。
次に、多様な偽の手がかりを抽出するバックボーンの能力を強化するために、競争力のあるバックボーンの微調整フレームワークを構築します。
論文 参考訳(メタデータ) (2024-09-25T13:57:16Z) - Face Adapter for Pre-Trained Diffusion Models with Fine-Grained ID and Attribute Control [59.954322727683746]
Face-Adapterは、事前訓練された拡散モデルのための高精度で忠実な顔編集のために設計されている。
Face-Adapterは、モーションコントロールの精度、ID保持能力、生成品質の点で同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2024-05-21T17:50:12Z) - FaceCat: Enhancing Face Recognition Security with a Unified Diffusion Model [30.0523477092216]
対面防止(FAS)と対向検出(FAD)は、顔認識システムの安全性を確保するための重要な技術であると考えられている。
本研究の目的は,1) 顔下特徴表現と2) トレーニングデータの不足という2つの主要な障害を突破することで,この目標を達成することである。
論文 参考訳(メタデータ) (2024-04-14T09:01:26Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Stable-Makeup: When Real-World Makeup Transfer Meets Diffusion Model [15.380297080210559]
現在のメークアップ転送方式は単純なメイクスタイルに限られており、現実のシナリオでは適用が困難である。
本研究では,多様な現実世界の化粧品を堅牢に転写できる新しい拡散型化粧品転写法であるStable-Makeupを紹介する。
論文 参考訳(メタデータ) (2024-03-12T15:53:14Z) - CLR-Face: Conditional Latent Refinement for Blind Face Restoration Using
Score-Based Diffusion Models [57.9771859175664]
最近の生成優先法は、有望なブラインドフェイス修復性能を示している。
入力に忠実なきめ細かい顔の詳細を生成することは、依然として難しい問題である。
本稿では,VQGANアーキテクチャの内部に拡散型プライマーを導入し,非破壊な潜伏埋め込みにおける分布の学習に重点を置いている。
論文 参考訳(メタデータ) (2024-02-08T23:51:49Z) - BeautyREC: Robust, Efficient, and Content-preserving Makeup Transfer [73.39598356799974]
本稿では,Robust,Efficient,Component-specific makeup transfer法(略して BeautyREC)を提案する。
参照画像のメイクスタイルを直接対応するコンポーネントに転送するコンポーネント固有の対応。
補助として、Transformerの長距離視覚依存性を導入して、効率的なグローバルメイク転送を実現する。
論文 参考訳(メタデータ) (2022-12-12T12:38:27Z) - More comprehensive facial inversion for more effective expression
recognition [8.102564078640274]
IFER(Inversion FER)と呼ばれるFERタスクの画像反転機構に基づく新しい生成手法を提案する。
ASITは、分布アライメント損失に制約された、ソースと生成された画像間のセマンティック特徴のコサイン類似度を測定する画像反転判別器を備えている。
FFHQやCelebA-HQなどの顔データセット上でASITを広範囲に評価し,現状の顔インバージョン性能を実現する方法を示した。
論文 参考訳(メタデータ) (2022-11-24T12:31:46Z) - EleGANt: Exquisite and Locally Editable GAN for Makeup Transfer [13.304362849679391]
EleGANt (EleGANt) を用いたエキサイティングで局所的に編集可能なGANを提案する。
顔の特徴をピラミッドの特徴マップにエンコードし、高周波情報を保存する。
EleGANtは、機能マップの対応する編集によって任意の領域でカスタマイズされたローカル編集を実現する最初の方法である。
論文 参考訳(メタデータ) (2022-07-20T11:52:07Z) - DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis [25.936764522125703]
DRAN(Detailed Region-Adaptive Normalization)と呼ばれる新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
我々は、幅広い複雑なメイクスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
論文 参考訳(メタデータ) (2021-09-29T16:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。