論文の概要: HairDiffusion: Vivid Multi-Colored Hair Editing via Latent Diffusion
- arxiv url: http://arxiv.org/abs/2410.21789v1
- Date: Tue, 29 Oct 2024 06:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:32.139138
- Title: HairDiffusion: Vivid Multi-Colored Hair Editing via Latent Diffusion
- Title(参考訳): 毛髪拡散:潜伏拡散による多色毛髪編集の可視化
- Authors: Yu Zeng, Yang Zhang, Jiachen Liu, Linlin Shen, Kaijun Deng, Weizhao He, Jinbao Wang,
- Abstract要約: 我々は,多段ヘアスタイルブレンド(MHB)を導入し,拡散遅延空間における毛髪の色と髪型を効果的に分離する。
また、髪の色をターゲット領域に合わせるために、ワープモジュールをトレーニングします。
本手法は多色ヘアスタイルの複雑さに対処するだけでなく,原色保存の課題にも対処する。
- 参考スコア(独自算出の注目度): 43.3852998245422
- License:
- Abstract: Hair editing is a critical image synthesis task that aims to edit hair color and hairstyle using text descriptions or reference images, while preserving irrelevant attributes (e.g., identity, background, cloth). Many existing methods are based on StyleGAN to address this task. However, due to the limited spatial distribution of StyleGAN, it struggles with multiple hair color editing and facial preservation. Considering the advancements in diffusion models, we utilize Latent Diffusion Models (LDMs) for hairstyle editing. Our approach introduces Multi-stage Hairstyle Blend (MHB), effectively separating control of hair color and hairstyle in diffusion latent space. Additionally, we train a warping module to align the hair color with the target region. To further enhance multi-color hairstyle editing, we fine-tuned a CLIP model using a multi-color hairstyle dataset. Our method not only tackles the complexity of multi-color hairstyles but also addresses the challenge of preserving original colors during diffusion editing. Extensive experiments showcase the superiority of our method in editing multi-color hairstyles while preserving facial attributes given textual descriptions and reference images.
- Abstract(参考訳): 毛髪編集は、テキスト記述や参照画像を用いて髪の色や髪型を編集し、無関係な属性(アイデンティティ、背景、布など)を保存することを目的とした、重要な画像合成作業である。
既存のメソッドの多くは、このタスクに対処するためにStyleGANに基づいている。
しかし、StyleGANの空間分布が限られているため、複数の髪の色編集と顔の保存に苦慮している。
拡散モデルの進歩を考えると,髪型編集にLDM(Latent Diffusion Models)を用いる。
提案手法は多段階ヘアスタイルブレンド (MHB) を導入し, 拡散遅延空間における毛髪色と髪型を効果的に分離する。
さらに、髪の色を対象領域に合わせるために、ワープモジュールを訓練する。
マルチカラーヘアスタイル編集をさらに強化するため,多色ヘアスタイルデータセットを用いてCLIPモデルを微調整した。
提案手法は,多色ヘアスタイルの複雑さに対処するだけでなく,拡散編集における原色保存の課題にも対処する。
テキスト記述や参照画像から顔の特徴を保存しながら,多色ヘアスタイルの編集において,本手法の優位性を実証した。
関連論文リスト
- What to Preserve and What to Transfer: Faithful, Identity-Preserving Diffusion-based Hairstyle Transfer [35.80645300182437]
既存のヘアスタイルのトランスファーアプローチは、トリミングされた顔画像とアライメントされた顔画像に基づいて事前訓練されたStyleGANに依存している。
本稿では,現実のシナリオに適用可能な一段階のヘアスタイル転移拡散モデルであるHairFusionを提案する。
本手法は, ヘアスタイルと周辺特性の整合性を維持する既存手法と比較して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-29T11:30:21Z) - Stable-Hair: Real-World Hair Transfer via Diffusion Model [23.500330976568296]
現在のヘアトランスファー法は多様で複雑なヘアスタイルを扱うのに苦労しており、現実のシナリオでは適用性が制限される。
そこで本研究では,現実世界のヘアスタイルを仮想ヘアトライオンのためにユーザが提供する顔に堅牢に転送する,新しい拡散型ヘアトランスファーフレームワークであるtextitStable-Hairを提案する。
論文 参考訳(メタデータ) (2024-07-19T07:14:23Z) - HairCLIPv2: Unifying Hair Editing via Proxy Feature Blending [94.39417893972262]
HairCLIPは、テキスト記述や参照画像に基づいた毛髪編集を可能にする最初の作品である。
本稿では,上述したすべてのインタラクションを一つの統一フレームワークでサポートすることを目的としたHairCLIPv2を提案する。
鍵となるアイデアは、すべてのヘア編集タスクをヘア転写タスクに変換し、それに応じて編集条件を異なるプロキシに変換することである。
論文 参考訳(メタデータ) (2023-10-16T17:59:58Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - AvatarStudio: Text-driven Editing of 3D Dynamic Human Head Avatars [84.85009267371218]
本研究では,動的なフルヘッドアバターの外観を編集するテキストベースのAvatarStudioを提案する。
提案手法は,ニューラルフィールド(NeRF)を用いて人間の頭部のダイナミックなパフォーマンスを捉え,テキスト・ツー・イメージ拡散モデルを用いてこの表現を編集する。
提案手法は,全頭部を標準空間で編集し,事前学習した変形ネットワークを介して残時間ステップに伝達する。
論文 参考訳(メタデータ) (2023-06-01T11:06:01Z) - StyleGAN Salon: Multi-View Latent Optimization for Pose-Invariant
Hairstyle Transfer [8.712040236361926]
本論文は、バーチャルヘアトライオンのために、参照画像のヘアスタイルを入力写真に転送することを目的とする。
本稿では、参照合成の「2つの異なるビュー」を用いて、隠蔽領域や曖昧な領域を意味的にガイドする多視点最適化フレームワークを提案する。
当社のフレームワークは,より難易度の高いヘアトランスファーシナリオからなるユーザスタディにおいて,高品質な結果が得られ,先行作業よりも優れています。
論文 参考訳(メタデータ) (2023-04-05T20:49:55Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - HairFIT: Pose-Invariant Hairstyle Transfer via Flow-based Hair Alignment
and Semantic-Region-Aware Inpainting [26.688276902813495]
ポーズ不変ヘアスタイル転送のための新しいフレームワークであるHairFITを提案する。
本モデルは,フローベース毛髪アライメントと毛髪合成の2段階からなる。
我々のSIM推定器は、画像中の隠蔽領域を異なる意味領域に分割し、塗装中の特徴を反映する。
論文 参考訳(メタデータ) (2022-06-17T06:55:20Z) - HairCLIP: Design Your Hair by Text and Reference Image [100.85116679883724]
本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。