論文の概要: PanoHair: Detailed Hair Strand Synthesis on Volumetric Heads
- arxiv url: http://arxiv.org/abs/2508.18944v1
- Date: Tue, 26 Aug 2025 11:36:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.819392
- Title: PanoHair: Detailed Hair Strand Synthesis on Volumetric Heads
- Title(参考訳): PanoHair: ボリュームヘッドの詳細なヘアストランド合成
- Authors: Shashikant Verma, Shanmuganathan Raman,
- Abstract要約: 既存の方法は、制約されたスタジオ環境で撮影されたマルチビュー画像を含む、データ取得のための複雑なセットアップを必要とする。
パノヘア(PanoHair)は、頭部合成のための訓練済み生成教師モデルから知識蒸留を用いて、頭部幾何学を符号付き距離場として推定するモデルである。
- 参考スコア(独自算出の注目度): 12.710733307422055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving realistic hair strand synthesis is essential for creating lifelike digital humans, but producing high-fidelity hair strand geometry remains a significant challenge. Existing methods require a complex setup for data acquisition, involving multi-view images captured in constrained studio environments. Additionally, these methods have longer hair volume estimation and strand synthesis times, which hinder efficiency. We introduce PanoHair, a model that estimates head geometry as signed distance fields using knowledge distillation from a pre-trained generative teacher model for head synthesis. Our approach enables the prediction of semantic segmentation masks and 3D orientations specifically for the hair region of the estimated geometry. Our method is generative and can generate diverse hairstyles with latent space manipulations. For real images, our approach involves an inversion process to infer latent codes and produces visually appealing hair strands, offering a streamlined alternative to complex multi-view data acquisition setups. Given the latent code, PanoHair generates a clean manifold mesh for the hair region in under 5 seconds, along with semantic and orientation maps, marking a significant improvement over existing methods, as demonstrated in our experiments.
- Abstract(参考訳): リアルなヘアストランド合成を実現することは、生物のようなデジタル人間を作るのに不可欠だが、高忠実なヘアストランド形状を作り出すことは、依然として重要な課題である。
既存の方法は、制約されたスタジオ環境で撮影されたマルチビュー画像を含む、データ取得のための複雑なセットアップを必要とする。
さらに、これらの手法は毛髪の体積推定と鎖合成時間を長くし、効率を損なう。
パノヘア(PanoHair)は、頭部合成のための訓練済み生成教師モデルから知識蒸留を用いて、頭部幾何学を符号付き距離場として推定するモデルである。
提案手法により,推定幾何の毛髪領域に特有なセグメンテーションマスクと3次元配向の予測が可能となる。
提案手法は多彩なヘアスタイルを生成可能であり, 遅延空間操作も可能である。
実画像の場合,提案手法は遅延符号を推論し,視覚的に魅力的なヘアストランドを生成し,複雑なマルチビューデータ取得装置の合理化された代替手段を提供する。
パノヘアは潜在コードから5秒未満でヘア領域のクリーンな多様体メッシュを生成し、セマンティックマップや向きマップを作成した。
関連論文リスト
- StrandDesigner: Towards Practical Strand Generation with Sketch Guidance [69.14408387191172]
本稿では,ユーザフレンドリなまま,より細かい制御が可能なスケッチベースストランド生成モデルを提案する。
私たちのフレームワークは、複雑なストランド相互作用や多様なスケッチパターンのモデリングなど、重要な課題に取り組みます。
いくつかのベンチマークデータセットの実験により、我々の手法は現実主義や精度において既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-08-03T08:17:50Z) - DiffLocks: Generating 3D Hair from a Single Image using Diffusion Models [53.08138861924767]
DiffLocksは,単一画像から直接,多様なヘアスタイルの再構築を可能にする新しいフレームワークである。
まず,40Kのヘアスタイルを含む最大合成ヘアデータセットの作成を自動化することで,3Dヘアデータの欠如に対処する。
予め訓練した画像バックボーンを用いることで,合成データのみを訓練しながら,画像の幅内への一般化を行う。
論文 参考訳(メタデータ) (2025-05-09T16:16:42Z) - GeomHair: Reconstruction of Hair Strands from Colorless 3D Scans [4.498049448460985]
マルチモーダルなヘアオリエンス抽出を利用して,無色の3Dスキャンから直接ヘアストランドを再構築する手法を提案する。
この監視信号の組み合わせにより,色情報に頼ることなく,髪型と複雑な髪型の両方を正確に再現できることが実証された。
論文 参考訳(メタデータ) (2025-05-08T16:11:09Z) - Synthetic Prior for Few-Shot Drivable Head Avatar Inversion [61.51887011274453]
そこで本研究では,合成前駆体に基づく乾燥可能な頭部アバターの少数ショット逆転法であるSynShotを提案する。
合成データのみに基づいて訓練された機械学習モデルに着想を得て,合成頭部の大きなデータセットから先行モデルを学習する手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T19:01:05Z) - Perm: A Parametric Representation for Multi-Style 3D Hair Modeling [22.790597419351528]
Permは、さまざまな毛髪関連の応用を促進するために設計された人間の3D毛髪のパラメトリック表現である。
ヘアテクスチャを低周波・高周波ヘア構造に適合・分解するために,我々のストランド表現を活用している。
論文 参考訳(メタデータ) (2024-07-28T10:05:11Z) - Dr.Hair: Reconstructing Scalp-Connected Hair Strands without Pre-training via Differentiable Rendering of Line Segments [23.71057752711745]
映画やゲーム業界では、現実的な髪型を達成するには、頭皮由来の鎖を使うのが一般的である。
本研究では,事前学習の必要性を解消する最適化手法を提案する。
提案手法は,既存の手法の精度を越え,処理速度を大幅に向上させるとともに,堅牢かつ高精度な逆レンダリングを実現する。
論文 参考訳(メタデータ) (2024-03-26T08:53:25Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。