論文の概要: HairCUP: Hair Compositional Universal Prior for 3D Gaussian Avatars
- arxiv url: http://arxiv.org/abs/2507.19481v1
- Date: Fri, 25 Jul 2025 17:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:49.066114
- Title: HairCUP: Hair Compositional Universal Prior for 3D Gaussian Avatars
- Title(参考訳): HairCUP: 3DガウスアバターのHair compositional Universal Prior
- Authors: Byungjun Kim, Shunsuke Saito, Giljoo Nam, Tomas Simon, Jason Saragih, Hanbyul Joo, Junxuan Li,
- Abstract要約: 本稿では,3次元頭部アバターの毛髪構成性を示す普遍的事前モデルを提案する。
我々のモデル固有の構成性は、アバター間の顔と髪の成分のシームレスな移動を可能にする。
- 参考スコア(独自算出の注目度): 29.819374818200885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a universal prior model for 3D head avatars with explicit hair compositionality. Existing approaches to build generalizable priors for 3D head avatars often adopt a holistic modeling approach, treating the face and hair as an inseparable entity. This overlooks the inherent compositionality of the human head, making it difficult for the model to naturally disentangle face and hair representations, especially when the dataset is limited. Furthermore, such holistic models struggle to support applications like 3D face and hairstyle swapping in a flexible and controllable manner. To address these challenges, we introduce a prior model that explicitly accounts for the compositionality of face and hair, learning their latent spaces separately. A key enabler of this approach is our synthetic hairless data creation pipeline, which removes hair from studio-captured datasets using estimated hairless geometry and texture derived from a diffusion prior. By leveraging a paired dataset of hair and hairless captures, we train disentangled prior models for face and hair, incorporating compositionality as an inductive bias to facilitate effective separation. Our model's inherent compositionality enables seamless transfer of face and hair components between avatars while preserving identity. Additionally, we demonstrate that our model can be fine-tuned in a few-shot manner using monocular captures to create high-fidelity, hair-compositional 3D head avatars for unseen subjects. These capabilities highlight the practical applicability of our approach in real-world scenarios, paving the way for flexible and expressive 3D avatar generation.
- Abstract(参考訳): 本稿では,3次元頭部アバターの毛髪構成性を示す普遍的事前モデルを提案する。
既存の3Dヘッドアバターの一般化可能な事前構築アプローチでは、顔と毛髪を分離不可能な実体として扱う、全体論的モデリングアプローチが採用されている。
これは、人間の頭の本質的な構成性を見落とし、特にデータセットが限定されている場合、モデルが自然に顔と毛髪の表現を歪めるのが困難になる。
さらに、このような全体論的モデルは、柔軟で制御可能な方法で3D顔やヘアスタイルスワップのようなアプリケーションをサポートするのに苦労している。
これらの課題に対処するために、顔と髪の組成を明示的に説明し、それぞれの潜在空間を別々に学習する事前モデルを導入する。
このアプローチの重要な有効性は、我々の合成ヘアレスデータ生成パイプラインである。これは、推定ヘアレス幾何と、拡散前の拡散から派生したテクスチャを用いて、スタジオが取得したデータセットから毛髪を除去する。
ヘアレスキャプチャーとヘアレスキャプチャーのペアデータセットを利用することで、顔と毛髪のアンタングルされた事前モデルを訓練し、構成性を帰納バイアスとして組み込んで効果的に分離する。
我々のモデル固有の構成性は、アイデンティティを保ちながらアバター間の顔と髪の成分のシームレスな移動を可能にする。
さらに, モノクルキャプチャーを用いて, 高忠実でヘアコンポジションな3D頭部アバターを, 数秒で微調整できることを実証した。
これらの能力は、現実のシナリオにおける我々のアプローチの実践的適用性を強調し、柔軟で表現力豊かな3Dアバター生成への道を開く。
関連論文リスト
- 3DGH: 3D Head Generation with Composable Hair and Face [21.770533642873662]
3DGHは、構成可能な毛髪と顔成分を持つ3次元頭部の無条件生成モデルである。
テンプレートベースの3次元ガウススプラッティングを用いた新しいデータ表現を用いて,これらを分離する。
我々は3DGHの設計選択を検証するために広範囲な実験を行い、質的かつ定量的に評価する。
論文 参考訳(メタデータ) (2025-06-25T22:53:52Z) - FRESA: Feedforward Reconstruction of Personalized Skinned Avatars from Few Images [74.86864398919467]
数枚の画像からリアルなアニメーションで、パーソナライズされた3Dアバターを再構成する新しい手法を提案する。
我々は、1000人以上の服を着た人間から普遍的な事前学習を行い、即時フィードフォワード生成とゼロショット一般化を実現する。
提案手法は, 最新技術よりも忠実な再構築とアニメーションを生成し, カジュアルに撮影された携帯電話写真からの入力に直接一般化することができる。
論文 参考訳(メタデータ) (2025-03-24T23:20:47Z) - GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - A Local Appearance Model for Volumetric Capture of Diverse Hairstyle [15.122893482253069]
ヘアは個人のアイデンティティと外観において重要な役割を担い、高品質で光現実主義的なアバターの重要な構成要素となっている。
既存のアプローチでは、顔領域のみをモデル化するか、パーソナライズされたモデルに依存し、一般化性とスケーラビリティを制限している。
ヘアスタイルの多彩な高忠実アバターを創出する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T06:29:59Z) - HHAvatar: Gaussian Head Avatar with Dynamic Hairs [27.20228210350169]
動的ヘアモデリングを用いた高忠実度頭部アバターの3次元ガウスアン制御が可能なアバターを提案する。
提案手法は,2K解像度で超高忠実なレンダリング品質を実現するため,最先端のスパースビュー法よりも優れている。
論文 参考訳(メタデータ) (2023-12-05T11:01:44Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - Learning Disentangled Avatars with Hybrid 3D Representations [102.9632315060652]
本稿では,DELTA(Disentangled Avatars)について述べる。
身体と衣服の絡み合いを考慮し、第二に顔と髪を縮めます。
これら2つのアプリケーションを簡単に組み合わせて、フルボディアバターをモデル化する方法を示す。
論文 参考訳(メタデータ) (2023-09-12T17:59:36Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - i3DMM: Deep Implicit 3D Morphable Model of Human Heads [115.19943330455887]
本報告では,頭部の3次元形態素モデル(i3DMM)について述べる。
顔の形状、テクスチャ、表情を識別するだけでなく、髪を含む頭部全体をモデル化する。
アブレーション研究,最先端モデルとの比較,セマンティックヘッド編集やテクスチャ転送などの応用を用いて,i3DMMの利点を示す。
論文 参考訳(メタデータ) (2020-11-28T15:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。