論文の概要: Stable-Hair: Real-World Hair Transfer via Diffusion Model
- arxiv url: http://arxiv.org/abs/2407.14078v1
- Date: Fri, 19 Jul 2024 07:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 18:33:40.760248
- Title: Stable-Hair: Real-World Hair Transfer via Diffusion Model
- Title(参考訳): 安定ヘア:拡散モデルによる実世界のヘアトランスファー
- Authors: Yuxuan Zhang, Qing Zhang, Yiren Song, Jiaming Liu,
- Abstract要約: 現在のヘアトランスファー法は多様で複雑なヘアスタイルを扱うのに苦労しており、現実のシナリオでは適用性が制限される。
そこで本研究では,現実世界のヘアスタイルを仮想ヘアトライオンのためにユーザが提供する顔に堅牢に転送する,新しい拡散型ヘアトランスファーフレームワークであるtextitStable-Hairを提案する。
- 参考スコア(独自算出の注目度): 23.500330976568296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current hair transfer methods struggle to handle diverse and intricate hairstyles, thus limiting their applicability in real-world scenarios. In this paper, we propose a novel diffusion-based hair transfer framework, named \textit{Stable-Hair}, which robustly transfers a wide range of real-world hairstyles onto user-provided faces for virtual hair try-on. To achieve this goal, our Stable-Hair framework is designed as a two-stage pipeline. In the first stage, we train a Bald Converter alongside stable diffusion to remove hair from the user-provided face images, resulting in bald images. In the second stage, we specifically designed three modules: a Hair Extractor, a Latent IdentityNet, and Hair Cross-Attention Layers to transfer the target hairstyle with highly detailed and high-fidelity to the bald image. Specifically, the Hair Extractor is trained to encode reference images with the desired hairstyles. To preserve the consistency of identity content and background between the source images and the transfer results, we employ a Latent IdentityNet to encode the source images. With the assistance of our Hair Cross-Attention Layers in the U-Net, we can accurately and precisely transfer the highly detailed and high-fidelity hairstyle to the bald image. Extensive experiments have demonstrated that our approach delivers state-of-the-art (SOTA) results among existing hair transfer methods. Project page: \textcolor{red}{\url{https://xiaojiu-z.github.io/Stable-Hair.github.io/}}
- Abstract(参考訳): 現在のヘアトランスファー法は多様で複雑なヘアスタイルを扱うのに苦労しており、現実のシナリオでは適用性が制限される。
本稿では,現実世界のヘアスタイルを仮想ヘアアップのためにユーザが提供する顔に頑健に転送する,新しい拡散型ヘアトランスファーフレームワークである「textit{Stable-Hair}」を提案する。
この目標を達成するため、私たちのStable-Hairフレームワークは2段階のパイプラインとして設計されています。
第1段階では、安定した拡散とともにバルドコンバータを訓練し、ユーザが提供する顔画像から毛髪を除去し、ハゲ画像を生成する。
第2段階では, ヘアエクストラクタ, ラテントアイデンティティネット, ヘアクロスアテンション層という3つのモジュールを設計した。
具体的には、ヘアエクストラクターは、所望のヘアスタイルで参照画像をエンコードするように訓練されている。
ソース画像と転送結果の同一性と背景の整合性を維持するため,Latent IdentityNetを用いてソース画像のエンコードを行う。
U-Netのヘアクロス・アテンション・レイヤの助けを借りて、高精細で高忠実なヘアスタイルをハゲ画像に正確に正確に転送することができる。
既存のヘアトランスファー法では,本手法がSOTA(State-of-the-art (SOTA))の結果をもたらすことが実証されている。
プロジェクトページ: \textcolor{red}{\url{https://xiaojiu-z.github.io/Stable-Hair.github.io/}}
関連論文リスト
- HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach [3.737361598712633]
本稿では,高分解能,ほぼリアルタイムの性能,再現性に優れたHairFastモデルを提案する。
我々のソリューションは、StyleGANのFS潜在空間で動作する新しいアーキテクチャを含む。
ヘアスタイルの形状と色を異なる画像から転送する最も難しいシナリオでは、Nvidia V100上で1秒未満で実行することができる。
論文 参考訳(メタデータ) (2024-04-01T12:59:49Z) - Improving Diffusion Models for Virtual Try-on [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - StyleGAN Salon: Multi-View Latent Optimization for Pose-Invariant
Hairstyle Transfer [8.712040236361926]
本論文は、バーチャルヘアトライオンのために、参照画像のヘアスタイルを入力写真に転送することを目的とする。
本稿では、参照合成の「2つの異なるビュー」を用いて、隠蔽領域や曖昧な領域を意味的にガイドする多視点最適化フレームワークを提案する。
当社のフレームワークは,より難易度の高いヘアトランスファーシナリオからなるユーザスタディにおいて,高品質な結果が得られ,先行作業よりも優れています。
論文 参考訳(メタデータ) (2023-04-05T20:49:55Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - HairFIT: Pose-Invariant Hairstyle Transfer via Flow-based Hair Alignment
and Semantic-Region-Aware Inpainting [26.688276902813495]
ポーズ不変ヘアスタイル転送のための新しいフレームワークであるHairFITを提案する。
本モデルは,フローベース毛髪アライメントと毛髪合成の2段階からなる。
我々のSIM推定器は、画像中の隠蔽領域を異なる意味領域に分割し、塗装中の特徴を反映する。
論文 参考訳(メタデータ) (2022-06-17T06:55:20Z) - SketchHairSalon: Deep Sketch-based Hair Image Synthesis [36.79413744626908]
所望の毛髪の構造と外観を表現したフリーハンドスケッチから直接リアルな毛髪画像を生成するための枠組みを提案する。
トレーニングされたネットワークと2つのスケッチ補完戦略に基づいて、初心者でも視覚的に喜ぶヘアイメージをデザインできる直感的なインターフェースを構築した。
論文 参考訳(メタデータ) (2021-09-16T11:14:01Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。