論文の概要: HairShifter: Consistent and High-Fidelity Video Hair Transfer via Anchor-Guided Animation
- arxiv url: http://arxiv.org/abs/2507.12758v1
- Date: Thu, 17 Jul 2025 03:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.326182
- Title: HairShifter: Consistent and High-Fidelity Video Hair Transfer via Anchor-Guided Animation
- Title(参考訳): HairShifter:アンカーガイドアニメーションによる一貫性と高忠実度ビデオヘアトランスファー
- Authors: Wangzheng Shi, Yinglin Zheng, Yuxin Lin, Jianmin Bao, Ming Zeng, Dong Chen,
- Abstract要約: HairShifterは、スムーズでコヒーレントなビデオアニメーションで高品質な画像ヘア転送を統合する新しいフレームワークである。
本手法は, 非毛髪領域を保存しながら, フレーム間の髪型忠実度を維持する。
HairShifterは、ビデオヘアスタイル転送における最先端のパフォーマンスを実現し、優れた視覚的品質、時間的一貫性、スケーラビリティを組み合わせている。
- 参考スコア(独自算出の注目度): 29.404225620335193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hair transfer is increasingly valuable across domains such as social media, gaming, advertising, and entertainment. While significant progress has been made in single-image hair transfer, video-based hair transfer remains challenging due to the need for temporal consistency, spatial fidelity, and dynamic adaptability. In this work, we propose HairShifter, a novel "Anchor Frame + Animation" framework that unifies high-quality image hair transfer with smooth and coherent video animation. At its core, HairShifter integrates a Image Hair Transfer (IHT) module for precise per-frame transformation and a Multi-Scale Gated SPADE Decoder to ensure seamless spatial blending and temporal coherence. Our method maintains hairstyle fidelity across frames while preserving non-hair regions. Extensive experiments demonstrate that HairShifter achieves state-of-the-art performance in video hairstyle transfer, combining superior visual quality, temporal consistency, and scalability. The code will be publicly available. We believe this work will open new avenues for video-based hairstyle transfer and establish a robust baseline in this field.
- Abstract(参考訳): ヘアトランスファーは、ソーシャルメディア、ゲーム、広告、エンターテイメントといった分野にまたがる価値がますます高まっている。
シングルイメージのヘアトランスファーでは大きな進歩があったが、時間的一貫性、空間的忠実性、動的適応性の必要性から、ビデオベースのヘアトランスファーは依然として困難である。
本研究では,高品質な画像毛髪移動をスムーズでコヒーレントなビデオアニメーションで統一する新しい「アンカーフレーム+アニメーション」フレームワークであるHairShifterを提案する。
コアとなるHairShifterは、フレーム単位の正確な変換のためのImage Hair Transfer (IHT)モジュールと、シームレスな空間ブレンディングと時間的コヒーレンスを保証するためのMulti-Scale Gated SPADE Decoderを統合している。
本手法は, 非毛髪領域を保存しながら, フレーム間の髪型忠実度を維持する。
HairShifterはビデオヘアスタイルの転送において、優れた視覚的品質、時間的一貫性、スケーラビリティを組み合わせた最先端のパフォーマンスを実現している。
コードは公開されます。
この研究は、ビデオベースのヘアスタイル転送のための新たな道を開き、この分野において堅牢なベースラインを確立するだろう。
関連論文リスト
- What to Preserve and What to Transfer: Faithful, Identity-Preserving Diffusion-based Hairstyle Transfer [35.80645300182437]
既存の髪型移行アプローチはStyleGANに依存している。
本稿では,現実のシナリオに適用可能な一段階のヘアスタイル転移拡散モデルであるHairFusionを提案する。
本手法は, ヘアスタイルと周辺特性の整合性を維持する既存手法と比較して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-29T11:30:21Z) - Stable-Hair: Real-World Hair Transfer via Diffusion Model [26.880396643803998]
現在のヘアトランスファー手法は、多様で複雑なヘアスタイルを扱うのに苦労し、現実のシナリオにおける適用性を制限している。
そこで本研究では,現実世界のヘアスタイルを仮想ヘアトライオンのためにユーザが提供する顔に堅牢に転送する,新しい拡散型ヘアトランスファーフレームワークであるtextitStable-Hairを提案する。
論文 参考訳(メタデータ) (2024-07-19T07:14:23Z) - Zero-shot High-fidelity and Pose-controllable Character Animation [89.74818983864832]
イメージ・ツー・ビデオ(I2V)生成は、単一の画像からビデオシーケンスを作成することを目的としている。
既存のアプローチは、キャラクターの外観の不整合と細部保存の貧弱さに悩まされている。
文字アニメーションのための新しいゼロショットI2VフレームワークPoseAnimateを提案する。
論文 参考訳(メタデータ) (2024-04-21T14:43:31Z) - HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach [3.737361598712633]
本稿では,高分解能,ほぼリアルタイムの性能,再現性に優れたHairFastモデルを提案する。
我々のソリューションは、StyleGANのFS潜在空間で動作する新しいアーキテクチャを含む。
ヘアスタイルの形状と色を異なる画像から転送する最も難しいシナリオでは、Nvidia V100上で1秒未満で実行することができる。
論文 参考訳(メタデータ) (2024-04-01T12:59:49Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - Automatic Animation of Hair Blowing in Still Portrait Photos [61.54919805051212]
静止画写真における人間の毛髪をアニメーション化するための新しいアプローチを提案する。
毛髪構造の複雑さを考慮し, 毛髪抽出を事例分割問題として, 革新的に扱う。
そこで本研究では, 毛髪を目立たせることなく, 快楽な動きで操作できるwisp対応アニメーションモジュールを提案する。
論文 参考訳(メタデータ) (2023-09-25T15:11:40Z) - NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and
Animation [23.625243364572867]
人間の髪のキャプチャーとアニメーションは、バーチャルリアリティーのための現実的なアバターを作成する上で大きな課題の2つだ。
データ駆動方式でこれらの課題に対処するために、頭から独立して毛髪をモデル化する2段階のアプローチを提案する。
本モデルでは, 毛髪観察を駆動信号として必要とせず, 新規な毛髪アニメーションを作成することができる。
論文 参考訳(メタデータ) (2022-12-01T16:09:54Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。