論文の概要: DreamMakeup: Face Makeup Customization using Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.10918v1
- Date: Mon, 13 Oct 2025 02:29:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.153543
- Title: DreamMakeup: Face Makeup Customization using Latent Diffusion Models
- Title(参考訳): DreamMakeup: 潜伏拡散モデルによる顔のメイクアップカスタマイズ
- Authors: Geon Yeong Park, Inhwa Han, Serin Yang, Yeobin Hong, Seongmin Jeong, Heechan Jeon, Myeongjin Goh, Sung Won Yi, Jin Nam, Jong Chul Ye,
- Abstract要約: 本稿では,DreamMakupを紹介した。DreamMakupは,新しいトレーニングフリー拡散モデルに基づくMakeup Customization法である。
提案モデルは,既存のGANベースおよび最近の拡散ベースフレームワークよりも顕著に改善されていることを示す。
- 参考スコア(独自算出の注目度): 42.98379243094055
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The exponential growth of the global makeup market has paralleled advancements in virtual makeup simulation technology. Despite the progress led by GANs, their application still encounters significant challenges, including training instability and limited customization capabilities. Addressing these challenges, we introduce DreamMakup - a novel training-free Diffusion model based Makeup Customization method, leveraging the inherent advantages of diffusion models for superior controllability and precise real-image editing. DreamMakeup employs early-stopped DDIM inversion to preserve the facial structure and identity while enabling extensive customization through various conditioning inputs such as reference images, specific RGB colors, and textual descriptions. Our model demonstrates notable improvements over existing GAN-based and recent diffusion-based frameworks - improved customization, color-matching capabilities, identity preservation and compatibility with textual descriptions or LLMs with affordable computational costs.
- Abstract(参考訳): グローバルメイク市場の指数的な成長は、仮想メイクシミュレーション技術の進歩と並行して進んでいる。
GANがリードする進歩にもかかわらず、トレーニングの不安定性や限定的なカスタマイズ機能など、そのアプリケーションは依然として重大な課題に直面している。
これらの課題に対処するために,DreamMakupを紹介した。DreamMakupは,DreamMakup(DreamMakup,DreamMakup,DreamMakup,DreamMakup,DreamMakup,DreamMakup,DreamMakup)という,新しいトレーニングフリー拡散モデルに基づくカスタマイズ手法である。
DreamMakeupは、顔の構造とアイデンティティを保存しつつ、参照画像、特定のRGB色、テキスト記述などの様々な条件入力を通じて広範囲のカスタマイズを可能にするために、早い段階のDDIMインバージョンを採用している。
提案モデルでは,既存のGANベースおよび最近の拡散ベースのフレームワークに対して,カスタマイズ,カラーマッチング機能,アイデンティティの保存,テキスト記述やLCMとの互換性などの大幅な改善を図っている。
関連論文リスト
- Towards High-Fidelity, Identity-Preserving Real-Time Makeup Transfer: Decoupling Style Generation [10.030819778997836]
リアルタイムな仮想メイク試行のための新しいフレームワークを提案する。
堅牢な時間的整合性を持つ高忠実でアイデンティティ保存性化粧品の転写を実現する。
論文 参考訳(メタデータ) (2025-09-02T15:52:56Z) - MADI: Masking-Augmented Diffusion with Inference-Time Scaling for Visual Editing [41.6713004141353]
Masking-Augmented Diffusion with Inference-Time Scaling (MADI)は、拡散モデルの編集性、構成性、制御性を改善するフレームワークである。
まず, 二重汚職プロセスを用いた新しいトレーニング戦略であるMasking-Augmented Gaussian Diffusion (MAgD)を紹介する。
第二に,Pause Tokensに基づく推論時キャパシティスケーリング機構を導入し,推論時に計算キャパシティを増大させるプロンプトに挿入される特別なプレースホルダーとして機能する。
論文 参考訳(メタデータ) (2025-07-16T20:56:57Z) - Scalable and Realistic Virtual Try-on Application for Foundation Makeup with Kubelka-Munk Theory [8.865360031361705]
ファンデーションVTO応用における重要な技術的課題は、ファンデーション-スキントーンカラーブレンディングの正確な合成である。
より高速な画像合成のための確立されたクーベルカ・マンク理論(KM)を近似する新しい手法を提案する。
我々は,電子商取引サイトで利用可能な製品情報にのみ依存して,現実的な基盤構成を実現するためのスケーラブルなエンドツーエンドフレームワークを構築している。
論文 参考訳(メタデータ) (2025-07-09T23:19:28Z) - AvatarMakeup: Realistic Makeup Transfer for 3D Animatable Head Avatars [89.31582684550723]
AvatarMakeupは、アニメーションを通して最先端のメイクアップ転送品質と一貫性を達成する。
コヒーレント複製は、生成した化粧画像中の平均的な顔属性を復号することで、グローバルな紫外線マップを最適化する。
実験によると、AvatarMakeupはアニメーションを通して、最先端のメイクアップの質と一貫性を実現する。
論文 参考訳(メタデータ) (2025-07-03T08:26:57Z) - Multi-focal Conditioned Latent Diffusion for Person Image Synthesis [59.113899155476005]
遅延拡散モデル(LDM)は高解像度画像生成において強力な機能を示した。
これらの制約に対処する多焦点条件付き潜時拡散法(MCLD)を提案する。
本手法では,顔の同一性やテクスチャ固有の情報を効果的に統合する多焦点条件アグリゲーションモジュールを利用する。
論文 参考訳(メタデータ) (2025-03-19T20:50:10Z) - BeautyBank: Encoding Facial Makeup in Latent Space [2.113770213797994]
素顔とメイク顔のパターン特徴をアンタングルする新しいメイクアップエンコーダであるBeautyBankを提案する。
本手法は, 化粧品の形状を高次元空間にエンコードし, 化粧品の復元に必要な細部を保存する。
また, 詳細な化粧品の保存性を高めるために, プログレッシブ・メイクアップ・チューニング(PMT)戦略を提案する。
論文 参考訳(メタデータ) (2024-11-18T01:52:31Z) - Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。