論文の概要: Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment
- arxiv url: http://arxiv.org/abs/2208.07765v1
- Date: Tue, 16 Aug 2022 14:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:35:51.528884
- Title: Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment
- Title(参考訳): style your hair:ローカルスタイル対応ヘアアライメントによるポーズ不変ヘアスタイル転送のための潜在最適化
- Authors: Taewoo Kim, Chaeyeon Chung, Yoonseo Kim, Sunghyun Park, Kangyeol Kim,
Jaegul Choo
- Abstract要約: 本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
- 参考スコア(独自算出の注目度): 29.782276472922398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Editing hairstyle is unique and challenging due to the complexity and
delicacy of hairstyle. Although recent approaches significantly improved the
hair details, these models often produce undesirable outputs when a pose of a
source image is considerably different from that of a target hair image,
limiting their real-world applications. HairFIT, a pose-invariant hairstyle
transfer model, alleviates this limitation yet still shows unsatisfactory
quality in preserving delicate hair textures. To solve these limitations, we
propose a high-performing pose-invariant hairstyle transfer model equipped with
latent optimization and a newly presented local-style-matching loss. In the
StyleGAN2 latent space, we first explore a pose-aligned latent code of a target
hair with the detailed textures preserved based on local style matching. Then,
our model inpaints the occlusions of the source considering the aligned target
hair and blends both images to produce a final output. The experimental results
demonstrate that our model has strengths in transferring a hairstyle under
larger pose differences and preserving local hairstyle textures.
- Abstract(参考訳): 髪型編集は、髪型が複雑で繊細であるため、独特で困難である。
最近のアプローチでは毛髪の詳細が大幅に改善されているが、これらのモデルは、ソース画像のポーズがターゲットの毛髪画像と大きく異なる場合、望ましくない出力を生成し、実際の応用を制限する。
ポーズ不変のヘアスタイル転送モデルであるHairFITは、この制限を緩和するが、繊細なヘアテクスチャを保存するのに不満足な品質を示す。
これらの制約を解決するために,潜伏最適化と新たに提示した局所的マッチング損失を備えた,高パフォーマンスなポーズ不変ヘアスタイル伝達モデルを提案する。
stylegan2潜在性空間において,まず,局所的スタイルマッチングに基づく詳細なテクスチャを保存した,対象毛髪のポーズ対応潜在性コードを探索する。
そこで,本モデルでは,アライメント対象毛髪を考慮し,両画像をブレンドして最終的な出力を生成する。
実験の結果,本モデルでは,大きなポーズ差下での髪型移動と,局所的な髪型テクスチャの保持に長所があることが確認された。
関連論文リスト
- What to Preserve and What to Transfer: Faithful, Identity-Preserving Diffusion-based Hairstyle Transfer [35.80645300182437]
既存のヘアスタイルのトランスファーアプローチは、トリミングされた顔画像とアライメントされた顔画像に基づいて事前訓練されたStyleGANに依存している。
本稿では,現実のシナリオに適用可能な一段階のヘアスタイル転移拡散モデルであるHairFusionを提案する。
本手法は, ヘアスタイルと周辺特性の整合性を維持する既存手法と比較して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-29T11:30:21Z) - Stable-Hair: Real-World Hair Transfer via Diffusion Model [23.500330976568296]
現在のヘアトランスファー法は多様で複雑なヘアスタイルを扱うのに苦労しており、現実のシナリオでは適用性が制限される。
そこで本研究では,現実世界のヘアスタイルを仮想ヘアトライオンのためにユーザが提供する顔に堅牢に転送する,新しい拡散型ヘアトランスファーフレームワークであるtextitStable-Hairを提案する。
論文 参考訳(メタデータ) (2024-07-19T07:14:23Z) - HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach [3.737361598712633]
本稿では,高分解能,ほぼリアルタイムの性能,再現性に優れたHairFastモデルを提案する。
我々のソリューションは、StyleGANのFS潜在空間で動作する新しいアーキテクチャを含む。
ヘアスタイルの形状と色を異なる画像から転送する最も難しいシナリオでは、Nvidia V100上で1秒未満で実行することができる。
論文 参考訳(メタデータ) (2024-04-01T12:59:49Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - StyleGAN Salon: Multi-View Latent Optimization for Pose-Invariant
Hairstyle Transfer [8.712040236361926]
本論文は、バーチャルヘアトライオンのために、参照画像のヘアスタイルを入力写真に転送することを目的とする。
本稿では、参照合成の「2つの異なるビュー」を用いて、隠蔽領域や曖昧な領域を意味的にガイドする多視点最適化フレームワークを提案する。
当社のフレームワークは,より難易度の高いヘアトランスファーシナリオからなるユーザスタディにおいて,高品質な結果が得られ,先行作業よりも優れています。
論文 参考訳(メタデータ) (2023-04-05T20:49:55Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z) - HairFIT: Pose-Invariant Hairstyle Transfer via Flow-based Hair Alignment
and Semantic-Region-Aware Inpainting [26.688276902813495]
ポーズ不変ヘアスタイル転送のための新しいフレームワークであるHairFITを提案する。
本モデルは,フローベース毛髪アライメントと毛髪合成の2段階からなる。
我々のSIM推定器は、画像中の隠蔽領域を異なる意味領域に分割し、塗装中の特徴を反映する。
論文 参考訳(メタデータ) (2022-06-17T06:55:20Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Learning Semantic Person Image Generation by Region-Adaptive
Normalization [81.52223606284443]
ポーズと外観の翻訳を扱う新しい2段階フレームワークを提案する。
第1段階では,対象意味解析マップを予測し,ポーズ転送の難しさを解消する。
第2段階では,領域適応正規化を組み込んだ新たな人物画像生成手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T06:51:37Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。