論文の概要: DGH: Dynamic Gaussian Hair
- arxiv url: http://arxiv.org/abs/2512.17094v1
- Date: Thu, 18 Dec 2025 21:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.186839
- Title: DGH: Dynamic Gaussian Hair
- Title(参考訳): DGH:ダイナミックガウスの髪
- Authors: Junying Wang, Yuanlu Xu, Edith Tretschk, Ziyan Wang, Anastasia Ianina, Aljaz Bozic, Ulrich Neumann, Tony Tung,
- Abstract要約: ヘアダイナミックスと外観を効果的に学習する新しいフレームワークであるDynamic Gaussian Hair(DGH)を提案する。
DGHは、物理ベースのシミュレーションとレンダリングに代わるスケーラブルでデータ駆動の代替手段を提供する、有望な幾何学と外観結果を達成する。
- 参考スコア(独自算出の注目度): 34.04732593280566
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The creation of photorealistic dynamic hair remains a major challenge in digital human modeling because of the complex motions, occlusions, and light scattering. Existing methods often resort to static capture and physics-based models that do not scale as they require manual parameter fine-tuning to handle the diversity of hairstyles and motions, and heavy computation to obtain high-quality appearance. In this paper, we present Dynamic Gaussian Hair (DGH), a novel framework that efficiently learns hair dynamics and appearance. We propose: (1) a coarse-to-fine model that learns temporally coherent hair motion dynamics across diverse hairstyles; (2) a strand-guided optimization module that learns a dynamic 3D Gaussian representation for hair appearance with support for differentiable rendering, enabling gradient-based learning of view-consistent appearance under motion. Unlike prior simulation-based pipelines, our approach is fully data-driven, scales with training data, and generalizes across various hairstyles and head motion sequences. Additionally, DGH can be seamlessly integrated into a 3D Gaussian avatar framework, enabling realistic, animatable hair for high-fidelity avatar representation. DGH achieves promising geometry and appearance results, providing a scalable, data-driven alternative to physics-based simulation and rendering.
- Abstract(参考訳): フォトリアリスティックな動的毛髪の作成は、複雑な動き、閉塞、光散乱のため、デジタル人間のモデリングにおいて大きな課題である。
既存の手法では、髪型や動きの多様性を扱うために手動パラメータの微調整を必要とするため、スケールしない静的キャプチャや物理ベースのモデルや、高品質な外観を得るために重い計算を用いることが多い。
本稿では,ヘアダイナミックスと外観を効率的に学習する新しいフレームワークであるDynamic Gaussian Hair(DGH)を提案する。
本研究では,(1)ヘアスタイルの時間的コヒーレントなヘアモーションダイナミクスを学習する粗粒度モデル,(2)ヘアスタイルの動的3次元ガウス表現を学習するストランド誘導最適化モジュールを提案する。
従来のシミュレーションベースのパイプラインとは異なり、我々のアプローチは完全にデータ駆動であり、トレーニングデータでスケールし、さまざまなヘアスタイルやヘッドモーションシーケンスをまたいで一般化する。
さらに、DGHは3Dガウスアバターフレームワークにシームレスに統合することができ、現実的でアニマタブルな毛髪で高忠実なアバター表現を可能にする。
DGHは、物理ベースのシミュレーションとレンダリングに代わるスケーラブルでデータ駆動の代替手段を提供する、有望な幾何学と外観結果を達成する。
関連論文リスト
- HairWeaver: Few-Shot Photorealistic Hair Motion Synthesis with Sim-to-Real Guided Video Diffusion [28.955744141374993]
ヘアウィーバーは、現実的で表現力のあるヘアダイナミックスを持つ単一の人間のイメージと相性がある。
われわれのアプローチは、人間の毛髪のアニメーションをダイナミックなディテールで制作し、新しい最先端の芸術を創りだす。
論文 参考訳(メタデータ) (2026-02-11T18:31:47Z) - HairFormer: Transformer-Based Dynamic Neural Hair Simulation [3.1157179526391374]
本稿では,任意のヘアスタイルの静的ドレープ形状を予測するトランスフォーマーを用いた静的ネットワークを提案する。
新規なクロスアテンション機構を持つ動的ネットワークは、静的毛髪特徴とキネマティック入力を融合して表現力学を生成する。
本手法は,物理インフォームド・ロスの導出により,多種多様なスタイルにまたがる高忠実で一般化可能な動的毛髪を示す。
論文 参考訳(メタデータ) (2025-07-16T19:42:08Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling [52.87836237427514]
フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:10:27Z) - RealityAvatar: Towards Realistic Loose Clothing Modeling in Animatable 3D Gaussian Avatars [4.332718737928592]
本研究では,高忠実度デジタルヒューマンモデリングのための効率的なフレームワークであるRealAvatarを提案する。
動作トレンドモジュールと潜在骨エンコーダを組み込むことで,ポーズ依存的な変形と衣服行動の時間的変動をモデル化する。
特に非剛性領域における動的ヒト再建における構造的忠実度と知覚的品質を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-02T09:59:12Z) - GaussianHair: Hair Modeling and Rendering with Light-aware Gaussians [41.52673678183542]
本稿では,新鮮な毛髪表現であるGaussianHairについて述べる。
ヘア幾何学と画像からの外観の包括的モデリングを可能にし、革新的な照明効果と動的アニメーション能力を育む。
我々はこのモデルを"GaussianHair Scattering Model"でさらに強化し、ヘアストランドの細い構造を再現し、均一な照明で局所的な拡散色を正確に捉えた。
論文 参考訳(メタデータ) (2024-02-16T07:13:24Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - HHAvatar: Gaussian Head Avatar with Dynamic Hairs [27.20228210350169]
動的ヘアモデリングを用いた高忠実度頭部アバターの3次元ガウスアン制御が可能なアバターを提案する。
提案手法は,2K解像度で超高忠実なレンダリング品質を実現するため,最先端のスパースビュー法よりも優れている。
論文 参考訳(メタデータ) (2023-12-05T11:01:44Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and
Animation [23.625243364572867]
人間の髪のキャプチャーとアニメーションは、バーチャルリアリティーのための現実的なアバターを作成する上で大きな課題の2つだ。
データ駆動方式でこれらの課題に対処するために、頭から独立して毛髪をモデル化する2段階のアプローチを提案する。
本モデルでは, 毛髪観察を駆動信号として必要とせず, 新規な毛髪アニメーションを作成することができる。
論文 参考訳(メタデータ) (2022-12-01T16:09:54Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。