論文の概要: Im2Haircut: Single-view Strand-based Hair Reconstruction for Human Avatars
- arxiv url: http://arxiv.org/abs/2509.01469v1
- Date: Mon, 01 Sep 2025 13:38:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.718363
- Title: Im2Haircut: Single-view Strand-based Hair Reconstruction for Human Avatars
- Title(参考訳): Im2Haircut:人間のアバターに対する一視点ストランドベースヘアコンストラクション
- Authors: Vanessa Sklyarova, Egor Zakharov, Malte Prinzler, Giorgio Becherini, Michael J. Black, Justus Thies,
- Abstract要約: 本研究では,グローバルヘアと局所最適化を併用した1枚の写真から3次元毛髪を復元する手法を提案する。
我々はこれを利用して1つ以上の画像からヘアスタイルを生成するガウススティングに基づく再構築手法を開発した。
- 参考スコア(独自算出の注目度): 60.99229760565975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach for 3D hair reconstruction from single photographs based on a global hair prior combined with local optimization. Capturing strand-based hair geometry from single photographs is challenging due to the variety and geometric complexity of hairstyles and the lack of ground truth training data. Classical reconstruction methods like multi-view stereo only reconstruct the visible hair strands, missing the inner structure of hairstyles and hampering realistic hair simulation. To address this, existing methods leverage hairstyle priors trained on synthetic data. Such data, however, is limited in both quantity and quality since it requires manual work from skilled artists to model the 3D hairstyles and create near-photorealistic renderings. To address this, we propose a novel approach that uses both, real and synthetic data to learn an effective hairstyle prior. Specifically, we train a transformer-based prior model on synthetic data to obtain knowledge of the internal hairstyle geometry and introduce real data in the learning process to model the outer structure. This training scheme is able to model the visible hair strands depicted in an input image, while preserving the general 3D structure of hairstyles. We exploit this prior to create a Gaussian-splatting-based reconstruction method that creates hairstyles from one or more images. Qualitative and quantitative comparisons with existing reconstruction pipelines demonstrate the effectiveness and superior performance of our method for capturing detailed hair orientation, overall silhouette, and backside consistency. For additional results and code, please refer to https://im2haircut.is.tue.mpg.de.
- Abstract(参考訳): 本研究では,グローバルヘアと局所最適化を併用した1枚の写真から3次元毛髪を復元する手法を提案する。
ヘアスタイルの多様性と幾何学的複雑さと、真実のトレーニングデータがないため、単一写真からストランドベースのヘアジオメトリをキャプチャすることは困難である。
多視点ステレオのような古典的な再構築手法は、目に見える髪の鎖を再構築するだけであり、髪型の内部構造が欠如し、現実的な髪のシミュレーションを妨げている。
これを解決するために、既存の方法では、合成データに基づいて訓練されたヘアスタイルの事前情報を活用する。
しかし、これらのデータは3Dのヘアスタイルをモデル化し、ほぼフォトリアリスティックなレンダリングを作成するために熟練したアーティストの手作業を必要とするため、量と品質に制限がある。
そこで本研究では,実データと合成データの両方を用いて,より効果的なヘアスタイルを事前に学習する手法を提案する。
具体的には、内毛髪形状の知識を得るために、合成データに基づくトランスフォーマーに基づく事前モデルを訓練し、学習過程に実際のデータを導入して、外部構造をモデル化する。
このトレーニングスキームは、ヘアスタイルの一般的な3D構造を保ちながら、入力画像に描かれた可視性ヘアストランドをモデル化することができる。
我々はこれを利用して1つ以上の画像からヘアスタイルを生成するガウススティングに基づく再構築手法を開発した。
既存の再建パイプラインと比較した質的,定量的な比較により,本手法の有効性と優れた性能を示し,毛髪方向の詳細な把握,シルエット全体,裏面の整合性を示した。
さらなる結果とコードについては、https://im2haircut.is.tue.mpg.deを参照してください。
関連論文リスト
- DiffLocks: Generating 3D Hair from a Single Image using Diffusion Models [53.08138861924767]
DiffLocksは,単一画像から直接,多様なヘアスタイルの再構築を可能にする新しいフレームワークである。
まず,40Kのヘアスタイルを含む最大合成ヘアデータセットの作成を自動化することで,3Dヘアデータの欠如に対処する。
予め訓練した画像バックボーンを用いることで,合成データのみを訓練しながら,画像の幅内への一般化を行う。
論文 参考訳(メタデータ) (2025-05-09T16:16:42Z) - Towards Unified 3D Hair Reconstruction from Single-View Portraits [27.404011546957104]
そこで本研究では,統一パイプラインによるヘアタイプの一視点3D再構成を実現するための新しい手法を提案する。
本実験は, 単一視像からの編み型3次元毛髪と非編み型3次元毛髪の再構築が可能であることを示す。
論文 参考訳(メタデータ) (2024-09-25T12:21:31Z) - Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - MonoHair: High-Fidelity Hair Modeling from a Monocular Video [40.27026803872373]
MonoHairはモノクロビデオから高忠実度毛髪再構築を実現するための汎用フレームワークである。
提案手法は, 毛髪のモデリング過程を, 正確な外装再構築と内部構造推定の2つの段階に分岐させる。
実験により,本手法は多彩なヘアスタイルにまたがって頑健性を示し,最先端の性能を実現していることが示された。
論文 参考訳(メタデータ) (2024-03-27T08:48:47Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。