論文の概要: HairGS: Hair Strand Reconstruction based on 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.07774v1
- Date: Tue, 09 Sep 2025 14:08:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.350974
- Title: HairGS: Hair Strand Reconstruction based on 3D Gaussian Splatting
- Title(参考訳): HairGS:3次元ガウススプレイティングに基づくヘアストランド再構築
- Authors: Yimin Pan, Matthias Nießner, Tobias Kirschstein,
- Abstract要約: 人間の髪の復元はコンピュータビジョンにおいて難しい問題である。
多視点画像からストランドレベルの毛髪形状復元を可能にする3DGSフレームワークを拡張した。
提案手法は多種多様なヘアスタイルを頑健に処理し, 1時間以内の効率的な再構築を実現する。
- 参考スコア(独自算出の注目度): 50.93221272778306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human hair reconstruction is a challenging problem in computer vision, with growing importance for applications in virtual reality and digital human modeling. Recent advances in 3D Gaussians Splatting (3DGS) provide efficient and explicit scene representations that naturally align with the structure of hair strands. In this work, we extend the 3DGS framework to enable strand-level hair geometry reconstruction from multi-view images. Our multi-stage pipeline first reconstructs detailed hair geometry using a differentiable Gaussian rasterizer, then merges individual Gaussian segments into coherent strands through a novel merging scheme, and finally refines and grows the strands under photometric supervision. While existing methods typically evaluate reconstruction quality at the geometric level, they often neglect the connectivity and topology of hair strands. To address this, we propose a new evaluation metric that serves as a proxy for assessing topological accuracy in strand reconstruction. Extensive experiments on both synthetic and real-world datasets demonstrate that our method robustly handles a wide range of hairstyles and achieves efficient reconstruction, typically completing within one hour. The project page can be found at: https://yimin-pan.github.io/hair-gs/
- Abstract(参考訳): 人間の髪の再構築はコンピュータビジョンにおいて難しい問題であり、仮想現実やデジタルヒューマンモデリングの応用において重要性が増している。
近年の3D Gaussian Splatting (3DGS) の進歩は、ヘアストランドの構造と自然に一致する、効率的で明示的なシーン表現を提供する。
本研究では3DGSフレームワークを拡張し,多視点画像からストランドレベルの毛髪形状復元を可能にする。
我々の多段パイプラインはまず、微分可能なガウスラスタライザを用いて詳細な毛髪形状を再構築し、その後、新しいマージンスキームによって個々のガウスセグメントをコヒーレントなストランドにマージし、最終的に光度監督の下でそのストランドを洗練・成長させる。
既存の手法は概して幾何レベルで復元の質を評価するが、髪の鎖の接続性やトポロジーを無視することが多い。
そこで本研究では,ストランド再構築におけるトポロジ的精度を評価するための指標として,新しい評価指標を提案する。
合成と実世界の両方のデータセットに対する大規模な実験は、我々の手法が幅広いヘアスタイルをしっかりと処理し、1時間以内で効率的に再構築できることを示した。
プロジェクトページは以下の通りである。
関連論文リスト
- Im2Haircut: Single-view Strand-based Hair Reconstruction for Human Avatars [60.99229760565975]
本研究では,グローバルヘアと局所最適化を併用した1枚の写真から3次元毛髪を復元する手法を提案する。
我々はこれを利用して1つ以上の画像からヘアスタイルを生成するガウススティングに基づく再構築手法を開発した。
論文 参考訳(メタデータ) (2025-09-01T13:38:08Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - Perm: A Parametric Representation for Multi-Style 3D Hair Modeling [22.790597419351528]
Permは、さまざまな毛髪関連の応用を促進するために設計された人間の3D毛髪のパラメトリック表現である。
ヘアテクスチャを低周波・高周波ヘア構造に適合・分解するために,我々のストランド表現を活用している。
論文 参考訳(メタデータ) (2024-07-28T10:05:11Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。