論文の概要: GeomHair: Reconstruction of Hair Strands from Colorless 3D Scans
- arxiv url: http://arxiv.org/abs/2505.05376v2
- Date: Fri, 09 May 2025 21:25:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 12:10:05.954363
- Title: GeomHair: Reconstruction of Hair Strands from Colorless 3D Scans
- Title(参考訳): GeomHair:無色の3Dスキャンからヘアストランドを再構築
- Authors: Rachmadio Noval Lazuardi, Artem Sevastopolsky, Egor Zakharov, Matthias Niessner, Vanessa Sklyarova,
- Abstract要約: マルチモーダルなヘアオリエンス抽出を利用して,無色の3Dスキャンから直接ヘアストランドを再構築する手法を提案する。
この監視信号の組み合わせにより,色情報に頼ることなく,髪型と複雑な髪型の両方を正確に再現できることが実証された。
- 参考スコア(独自算出の注目度): 4.498049448460985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel method that reconstructs hair strands directly from colorless 3D scans by leveraging multi-modal hair orientation extraction. Hair strand reconstruction is a fundamental problem in computer vision and graphics that can be used for high-fidelity digital avatar synthesis, animation, and AR/VR applications. However, accurately recovering hair strands from raw scan data remains challenging due to human hair's complex and fine-grained structure. Existing methods typically rely on RGB captures, which can be sensitive to the environment and can be a challenging domain for extracting the orientation of guiding strands, especially in the case of challenging hairstyles. To reconstruct the hair purely from the observed geometry, our method finds sharp surface features directly on the scan and estimates strand orientation through a neural 2D line detector applied to the renderings of scan shading. Additionally, we incorporate a diffusion prior trained on a diverse set of synthetic hair scans, refined with an improved noise schedule, and adapted to the reconstructed contents via a scan-specific text prompt. We demonstrate that this combination of supervision signals enables accurate reconstruction of both simple and intricate hairstyles without relying on color information. To facilitate further research, we introduce Strands400, the largest publicly available dataset of hair strands with detailed surface geometry extracted from real-world data, which contains reconstructed hair strands from the scans of 400 subjects.
- Abstract(参考訳): マルチモーダルなヘアオリエンス抽出を利用して,無色の3Dスキャンから直接ヘアストランドを再構築する手法を提案する。
ヘアストランド再構成はコンピュータビジョンとグラフィックスの基本的な問題であり、高忠実度デジタルアバター合成、アニメーション、AR/VRアプリケーションに使用できる。
しかし、人間の髪の構造が複雑できめ細かなため、生のスキャンデータから正確に毛糸を回収することは困難である。
既存の方法は、通常RGBキャプチャーに依存しており、環境に敏感であり、特に挑戦的なヘアスタイルの場合、ガイドストランドの向きを抽出するのに難しい領域である。
観察された形状から純的に毛髪を再構築するため,本手法では,スキャン上での鋭い表面形状の観察と,スキャンシェーディングのレンダリングに応用したニューラルネットワーク2D線検出器によるストランド配向の推定を行った。
さらに, 多様なヘアスキャンをトレーニングし, 改良されたノイズスケジュールで洗練し, スキャン固有のテキストプロンプトによって再構成された内容に適応させる。
この監視信号の組み合わせにより,色情報に頼ることなく,髪型と複雑な髪型の両方を正確に再現できることが実証された。
さらなる研究を容易にするために,400人の被験者のスキャンから再構成したヘアストランドを含む実世界のデータから抽出された詳細な表面形状を持つ,公開されている最大のヘアストランドのデータセットであるStrands400を紹介した。
関連論文リスト
- Towards Unified 3D Hair Reconstruction from Single-View Portraits [27.404011546957104]
そこで本研究では,統一パイプラインによるヘアタイプの一視点3D再構成を実現するための新しい手法を提案する。
本実験は, 単一視像からの編み型3次元毛髪と非編み型3次元毛髪の再構築が可能であることを示す。
論文 参考訳(メタデータ) (2024-09-25T12:21:31Z) - Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - Dr.Hair: Reconstructing Scalp-Connected Hair Strands without Pre-training via Differentiable Rendering of Line Segments [23.71057752711745]
映画やゲーム業界では、現実的な髪型を達成するには、頭皮由来の鎖を使うのが一般的である。
本研究では,事前学習の必要性を解消する最適化手法を提案する。
提案手法は,既存の手法の精度を越え,処理速度を大幅に向上させるとともに,堅牢かつ高精度な逆レンダリングを実現する。
論文 参考訳(メタデータ) (2024-03-26T08:53:25Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Instant Multi-View Head Capture through Learnable Registration [62.70443641907766]
3次元頭部のデータセットを密接なセマンティック通信でキャプチャする既存の手法は遅い。
キャリブレーションされたマルチビュー画像から3Dヘッドを直接推定するためにTEMPEHを導入する。
1つの頭部の予測には0.3秒かかるが、中央値の復元誤差は0.26mmで、現在の最先端よりも64%低い。
論文 参考訳(メタデータ) (2023-06-12T21:45:18Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。