論文の概要: HairWeaver: Few-Shot Photorealistic Hair Motion Synthesis with Sim-to-Real Guided Video Diffusion
- arxiv url: http://arxiv.org/abs/2602.11117v1
- Date: Wed, 11 Feb 2026 18:31:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.31214
- Title: HairWeaver: Few-Shot Photorealistic Hair Motion Synthesis with Sim-to-Real Guided Video Diffusion
- Title(参考訳): HairWeaver:Sim-to-Real Video Diffusionによる光リアルなヘアモーション合成
- Authors: Di Chang, Ji Hou, Aljaz Bozic, Assaf Neuberger, Felix Juefei-Xu, Olivier Maury, Gene Wei-Chin Lin, Tuur Stuyck, Doug Roble, Mohammad Soleymani, Stephane Grabli,
- Abstract要約: ヘアウィーバーは、現実的で表現力のあるヘアダイナミックスを持つ単一の人間のイメージと相性がある。
われわれのアプローチは、人間の毛髪のアニメーションをダイナミックなディテールで制作し、新しい最先端の芸術を創りだす。
- 参考スコア(独自算出の注目度): 28.955744141374993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HairWeaver, a diffusion-based pipeline that animates a single human image with realistic and expressive hair dynamics. While existing methods successfully control body pose, they lack specific control over hair, and as a result, fail to capture the intricate hair motions, resulting in stiff and unrealistic animations. HairWeaver overcomes this limitation using two specialized modules: a Motion-Context-LoRA to integrate motion conditions and a Sim2Real-Domain-LoRA to preserve the subject's photoreal appearance across different data domains. These lightweight components are designed to guide a video diffusion backbone while maintaining its core generative capabilities. By training on a specialized dataset of dynamic human motion generated from a CG simulator, HairWeaver affords fine control over hair motion and ultimately learns to produce highly realistic hair that responds naturally to movement. Comprehensive evaluations demonstrate that our approach sets a new state of the art, producing lifelike human hair animations with dynamic details.
- Abstract(参考訳): HairWeaverは、拡散に基づくパイプラインで、現実的で表現力のあるヘアダイナミックスで単一の人間のイメージと相似する。
既存の方法では身体のポーズを制御できたが、毛髪の特定の制御が欠けており、結果として複雑な毛髪の動きを捉えることができず、硬く非現実的なアニメーションを生み出した。
HairWeaverは、モーション条件を統合するMotion-Context-LoRAと、異なるデータドメイン間で被写体のフォトリアルな外観を維持するSim2Real-Domain-LoRAという2つの特別なモジュールを使用して、この制限を克服している。
これらの軽量なコンポーネントは、コア生成能力を保ちながら、ビデオ拡散バックボーンをガイドするように設計されている。
HairWeaverは、CGシミュレータから生成されたダイナミックな人間の動きの特別なデータセットをトレーニングすることで、毛髪の動きを細かく制御し、最終的に動きに自然に反応する非常にリアルな毛髪を作り出すことを学ぶ。
包括的評価は,本手法が新たな最先端のヒトヘアアニメーションを動的に生成することを示す。
関連論文リスト
- DGH: Dynamic Gaussian Hair [34.04732593280566]
ヘアダイナミックスと外観を効果的に学習する新しいフレームワークであるDynamic Gaussian Hair(DGH)を提案する。
DGHは、物理ベースのシミュレーションとレンダリングに代わるスケーラブルでデータ駆動の代替手段を提供する、有望な幾何学と外観結果を達成する。
論文 参考訳(メタデータ) (2025-12-18T21:45:45Z) - X-Dyna: Expressive Dynamic Human Image Animation [49.896933584815926]
X-Dynaは、単一の人間のイメージをアニメーションするための、ゼロショットで拡散ベースのパイプラインである。
対象と周辺環境の両方に対して現実的でコンテキスト対応のダイナミクスを生成する。
論文 参考訳(メタデータ) (2025-01-17T08:10:53Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Automatic Animation of Hair Blowing in Still Portrait Photos [61.54919805051212]
静止画写真における人間の毛髪をアニメーション化するための新しいアプローチを提案する。
毛髪構造の複雑さを考慮し, 毛髪抽出を事例分割問題として, 革新的に扱う。
そこで本研究では, 毛髪を目立たせることなく, 快楽な動きで操作できるwisp対応アニメーションモジュールを提案する。
論文 参考訳(メタデータ) (2023-09-25T15:11:40Z) - NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and
Animation [23.625243364572867]
人間の髪のキャプチャーとアニメーションは、バーチャルリアリティーのための現実的なアバターを作成する上で大きな課題の2つだ。
データ駆動方式でこれらの課題に対処するために、頭から独立して毛髪をモデル化する2段階のアプローチを提案する。
本モデルでは, 毛髪観察を駆動信号として必要とせず, 新規な毛髪アニメーションを作成することができる。
論文 参考訳(メタデータ) (2022-12-01T16:09:54Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。