論文の概要: ControlHair: Physically-based Video Diffusion for Controllable Dynamic Hair Rendering
- arxiv url: http://arxiv.org/abs/2509.21541v2
- Date: Mon, 29 Sep 2025 10:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.646971
- Title: ControlHair: Physically-based Video Diffusion for Controllable Dynamic Hair Rendering
- Title(参考訳): ControlHair:制御可能なダイナミックヘアレンダリングのための物理ベースビデオ拡散
- Authors: Weikai Lin, Haoxiang Li, Yuhao Zhu,
- Abstract要約: 物理シミュレータと条件付きビデオ拡散を統合し,動的ヘアレンダリングを可能にするハイブリッドフレームワークであるControlHairを提案する。
ControlHairは3段階のパイプラインを採用しており、まずシミュレータを使って物理パラメータをフレーム単位の幾何学にエンコードし、次にフレーム単位の制御信号を抽出し、最後に制御信号をビデオ拡散モデルに供給して、所望のヘアダイナミックスでビデオを生成する。
10Kのビデオデータセットに基づいてトレーニングされたControlHairは、テキストとポーズ条件のベースラインを上回り、正確に制御されたヘアダイナミックスを提供する。
- 参考スコア(独自算出の注目度): 13.193640874747745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hair simulation and rendering are challenging due to complex strand dynamics, diverse material properties, and intricate light-hair interactions. Recent video diffusion models can generate high-quality videos, but they lack fine-grained control over hair dynamics. We present ControlHair, a hybrid framework that integrates a physics simulator with conditional video diffusion to enable controllable dynamic hair rendering. ControlHair adopts a three-stage pipeline: it first encodes physics parameters (e.g., hair stiffness, wind) into per-frame geometry using a simulator, then extracts per-frame control signals, and finally feeds control signals into a video diffusion model to generate videos with desired hair dynamics. This cascaded design decouples physics reasoning from video generation, supports diverse physics, and makes training the video diffusion model easy. Trained on a curated 10K video dataset, ControlHair outperforms text- and pose-conditioned baselines, delivering precisely controlled hair dynamics. We further demonstrate three use cases of ControlHair: dynamic hairstyle try-on, bullet-time effects, and cinemagraphic. ControlHair introduces the first physics-informed video diffusion framework for controllable dynamics. We provide a teaser video and experimental results on our website.
- Abstract(参考訳): ヘアシミュレーションとレンダリングは、複雑なストランドダイナミクス、多様な材料特性、複雑な光と毛の相互作用によって困難である。
最近のビデオ拡散モデルは高品質なビデオを生成することができるが、ヘアダイナミックスに対するきめ細かい制御は欠如している。
物理シミュレータと条件付きビデオ拡散を統合し,動的ヘアレンダリングを可能にするハイブリッドフレームワークであるControlHairを提案する。
ControlHairは3段階のパイプラインを採用しており、まずシミュレータを使って物理パラメータ(例えば、毛髪硬さ、風)をフレーム単位の幾何学にエンコードし、次にフレーム単位の制御信号を抽出し、最後に制御信号をビデオ拡散モデルに供給し、所望のヘアダイナミックスでビデオを生成する。
このケースドデザインは、ビデオ生成から物理を分離し、多様な物理をサポートし、ビデオ拡散モデルのトレーニングを容易にする。
キュレートされた10Kビデオデータセットに基づいてトレーニングされたControlHairは、テキストとポーズ条件のベースラインを上回り、正確に制御されたヘアダイナミックスを提供する。
ControlHairの3つのユースケースとして、動的ヘアスタイルトライオン、弾丸時効果、シネマグラフィーを挙げる。
ControlHairは、制御可能なダイナミックスのための物理インフォームドビデオ拡散フレームワークである。
当社のウェブサイトでティーザービデオと実験結果を提供しています。
関連論文リスト
- PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation [53.06495362038348]
既存の世代モデルは、テキストや画像から写真リアリスティックなビデオを作るのに優れているが、物理的な可視性と3D制御性に欠けることが多い。
本稿では物理パラメータと力制御を備えた物理地上画像生成のための新しいフレームワークであるPhysCtrlを紹介する。
実験によると、PhysCtrlは現実的な物理地上の運動軌跡を生成し、画像とビデオのモデルを駆動する際に高忠実で制御可能なビデオを生成する。
論文 参考訳(メタデータ) (2025-09-24T17:58:04Z) - Think Before You Diffuse: LLMs-Guided Physics-Aware Video Generation [55.046699347579455]
DiffPhyは、物理的に正確でリアルなビデオ生成を可能にする汎用的なフレームワークである。
本手法は大規模言語モデル(LLM)を活用し,テキストプロンプトから包括的物理的文脈を明示的に推論する。
また、多様な植物行動やイベントを含む高品質な物理ビデオデータセットを構築し、効果的な微調整を容易にする。
論文 参考訳(メタデータ) (2025-05-27T18:26:43Z) - Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals [18.86902152614664]
映像生成のための制御信号として物理力を用いる。
そこで我々は,局所的な力によって画像と対話できる力のプロンプトを提案する。
これらの力のプロンプトによって、ビデオが物理的な制御信号に現実的に反応できることを実証する。
論文 参考訳(メタデータ) (2025-05-26T01:04:02Z) - WonderPlay: Dynamic 3D Scene Generation from a Single Image and Actions [49.43000450846916]
WonderPlayは物理シミュレーションとビデオ生成を統合するフレームワークである。
アクション条件付き動的3Dシーンを1枚の画像から生成する。
WonderPlayは、ユーザが多様なコンテンツのさまざまなシーンと対話することを可能にする。
論文 参考訳(メタデータ) (2025-05-23T17:59:24Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。