論文の概要: ControlHair: Physically-based Video Diffusion for Controllable Dynamic Hair Rendering
- arxiv url: http://arxiv.org/abs/2509.21541v2
- Date: Mon, 29 Sep 2025 10:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.646971
- Title: ControlHair: Physically-based Video Diffusion for Controllable Dynamic Hair Rendering
- Title(参考訳): ControlHair:制御可能なダイナミックヘアレンダリングのための物理ベースビデオ拡散
- Authors: Weikai Lin, Haoxiang Li, Yuhao Zhu,
- Abstract要約: 物理シミュレータと条件付きビデオ拡散を統合し,動的ヘアレンダリングを可能にするハイブリッドフレームワークであるControlHairを提案する。
ControlHairは3段階のパイプラインを採用しており、まずシミュレータを使って物理パラメータをフレーム単位の幾何学にエンコードし、次にフレーム単位の制御信号を抽出し、最後に制御信号をビデオ拡散モデルに供給して、所望のヘアダイナミックスでビデオを生成する。
10Kのビデオデータセットに基づいてトレーニングされたControlHairは、テキストとポーズ条件のベースラインを上回り、正確に制御されたヘアダイナミックスを提供する。
- 参考スコア(独自算出の注目度): 13.193640874747745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hair simulation and rendering are challenging due to complex strand dynamics, diverse material properties, and intricate light-hair interactions. Recent video diffusion models can generate high-quality videos, but they lack fine-grained control over hair dynamics. We present ControlHair, a hybrid framework that integrates a physics simulator with conditional video diffusion to enable controllable dynamic hair rendering. ControlHair adopts a three-stage pipeline: it first encodes physics parameters (e.g., hair stiffness, wind) into per-frame geometry using a simulator, then extracts per-frame control signals, and finally feeds control signals into a video diffusion model to generate videos with desired hair dynamics. This cascaded design decouples physics reasoning from video generation, supports diverse physics, and makes training the video diffusion model easy. Trained on a curated 10K video dataset, ControlHair outperforms text- and pose-conditioned baselines, delivering precisely controlled hair dynamics. We further demonstrate three use cases of ControlHair: dynamic hairstyle try-on, bullet-time effects, and cinemagraphic. ControlHair introduces the first physics-informed video diffusion framework for controllable dynamics. We provide a teaser video and experimental results on our website.
- Abstract(参考訳): ヘアシミュレーションとレンダリングは、複雑なストランドダイナミクス、多様な材料特性、複雑な光と毛の相互作用によって困難である。
最近のビデオ拡散モデルは高品質なビデオを生成することができるが、ヘアダイナミックスに対するきめ細かい制御は欠如している。
物理シミュレータと条件付きビデオ拡散を統合し,動的ヘアレンダリングを可能にするハイブリッドフレームワークであるControlHairを提案する。
ControlHairは3段階のパイプラインを採用しており、まずシミュレータを使って物理パラメータ(例えば、毛髪硬さ、風)をフレーム単位の幾何学にエンコードし、次にフレーム単位の制御信号を抽出し、最後に制御信号をビデオ拡散モデルに供給し、所望のヘアダイナミックスでビデオを生成する。
このケースドデザインは、ビデオ生成から物理を分離し、多様な物理をサポートし、ビデオ拡散モデルのトレーニングを容易にする。
キュレートされた10Kビデオデータセットに基づいてトレーニングされたControlHairは、テキストとポーズ条件のベースラインを上回り、正確に制御されたヘアダイナミックスを提供する。
ControlHairの3つのユースケースとして、動的ヘアスタイルトライオン、弾丸時効果、シネマグラフィーを挙げる。
ControlHairは、制御可能なダイナミックスのための物理インフォームドビデオ拡散フレームワークである。
当社のウェブサイトでティーザービデオと実験結果を提供しています。
関連論文リスト
- HairWeaver: Few-Shot Photorealistic Hair Motion Synthesis with Sim-to-Real Guided Video Diffusion [28.955744141374993]
ヘアウィーバーは、現実的で表現力のあるヘアダイナミックスを持つ単一の人間のイメージと相性がある。
われわれのアプローチは、人間の毛髪のアニメーションをダイナミックなディテールで制作し、新しい最先端の芸術を創りだす。
論文 参考訳(メタデータ) (2026-02-11T18:31:47Z) - DGH: Dynamic Gaussian Hair [34.04732593280566]
ヘアダイナミックスと外観を効果的に学習する新しいフレームワークであるDynamic Gaussian Hair(DGH)を提案する。
DGHは、物理ベースのシミュレーションとレンダリングに代わるスケーラブルでデータ駆動の代替手段を提供する、有望な幾何学と外観結果を達成する。
論文 参考訳(メタデータ) (2025-12-18T21:45:45Z) - VHOI: Controllable Video Generation of Human-Object Interactions from Sparse Trajectories via Motion Densification [65.15340059997273]
VHOIは、ビデオにおける現実的な人間とオブジェクトの相互作用を作成するためのフレームワークである。
そこで本研究では,人体と物体の運動だけでなく,身体部分特異的な動特性も識別するために,色エンコーディングを用いた新しいHOI対応動作表現を提案する。
実験は、制御可能なHOIビデオ生成における最先端の結果を示す。
論文 参考訳(メタデータ) (2025-12-10T13:40:24Z) - PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation [53.06495362038348]
既存の世代モデルは、テキストや画像から写真リアリスティックなビデオを作るのに優れているが、物理的な可視性と3D制御性に欠けることが多い。
本稿では物理パラメータと力制御を備えた物理地上画像生成のための新しいフレームワークであるPhysCtrlを紹介する。
実験によると、PhysCtrlは現実的な物理地上の運動軌跡を生成し、画像とビデオのモデルを駆動する際に高忠実で制御可能なビデオを生成する。
論文 参考訳(メタデータ) (2025-09-24T17:58:04Z) - Think Before You Diffuse: LLMs-Guided Physics-Aware Video Generation [55.046699347579455]
DiffPhyは、物理的に正確でリアルなビデオ生成を可能にする汎用的なフレームワークである。
本手法は大規模言語モデル(LLM)を活用し,テキストプロンプトから包括的物理的文脈を明示的に推論する。
また、多様な植物行動やイベントを含む高品質な物理ビデオデータセットを構築し、効果的な微調整を容易にする。
論文 参考訳(メタデータ) (2025-05-27T18:26:43Z) - Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals [18.86902152614664]
映像生成のための制御信号として物理力を用いる。
そこで我々は,局所的な力によって画像と対話できる力のプロンプトを提案する。
これらの力のプロンプトによって、ビデオが物理的な制御信号に現実的に反応できることを実証する。
論文 参考訳(メタデータ) (2025-05-26T01:04:02Z) - WonderPlay: Dynamic 3D Scene Generation from a Single Image and Actions [49.43000450846916]
WonderPlayは物理シミュレーションとビデオ生成を統合するフレームワークである。
アクション条件付き動的3Dシーンを1枚の画像から生成する。
WonderPlayは、ユーザが多様なコンテンツのさまざまなシーンと対話することを可能にする。
論文 参考訳(メタデータ) (2025-05-23T17:59:24Z) - InfiniCube: Unbounded and Controllable Dynamic 3D Driving Scene Generation with World-Guided Video Models [75.03495065452955]
InfiniCubeはダイナミックな3次元駆動シーンを高忠実かつ制御性で生成するスケーラブルな方法である。
制御可能でリアルな3Dドライビングシーンを生成でき、モデルの有効性と優越性を広範囲にわたる実験により検証できる。
論文 参考訳(メタデータ) (2024-12-05T07:32:20Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - VDT: General-purpose Video Diffusion Transformers via Mask Modeling [62.71878864360634]
Video Diffusion Transformer (VDT)は、拡散に基づくビデオ生成におけるトランスフォーマーの利用の先駆者である。
本稿では,多様な映像生成シナリオに対応するために,モデルとシームレスに統合された空間時空間マスクモデリング機構を提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。