論文の概要: A Local Appearance Model for Volumetric Capture of Diverse Hairstyle
- arxiv url: http://arxiv.org/abs/2312.08679v1
- Date: Thu, 14 Dec 2023 06:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 23:44:29.944234
- Title: A Local Appearance Model for Volumetric Capture of Diverse Hairstyle
- Title(参考訳): 多様な髪型の容積捕獲のための局所的外観モデル
- Authors: Ziyan Wang, Giljoo Nam, Aljaz Bozic, Chen Cao, Jason Saragih, Michael
Zollhoefer, Jessica Hodgins
- Abstract要約: ヘアは個人のアイデンティティと外観において重要な役割を担い、高品質で光現実主義的なアバターの重要な構成要素となっている。
既存のアプローチでは、顔領域のみをモデル化するか、パーソナライズされたモデルに依存し、一般化性とスケーラビリティを制限している。
ヘアスタイルの多彩な高忠実アバターを創出する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 15.122893482253069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hair plays a significant role in personal identity and appearance, making it
an essential component of high-quality, photorealistic avatars. Existing
approaches either focus on modeling the facial region only or rely on
personalized models, limiting their generalizability and scalability. In this
paper, we present a novel method for creating high-fidelity avatars with
diverse hairstyles. Our method leverages the local similarity across different
hairstyles and learns a universal hair appearance prior from multi-view
captures of hundreds of people. This prior model takes 3D-aligned features as
input and generates dense radiance fields conditioned on a sparse point cloud
with color. As our model splits different hairstyles into local primitives and
builds prior at that level, it is capable of handling various hair topologies.
Through experiments, we demonstrate that our model captures a diverse range of
hairstyles and generalizes well to challenging new hairstyles. Empirical
results show that our method improves the state-of-the-art approaches in
capturing and generating photorealistic, personalized avatars with complete
hair.
- Abstract(参考訳): 髪は個性や外見において重要な役割を担っており、高品質でフォトリアリスティックなアバターの重要な要素となっている。
既存のアプローチでは、顔領域のみのモデリングにフォーカスするか、パーソナライズされたモデルに依存し、その一般化性と拡張性を制限する。
本稿では,多彩なヘアスタイルで高忠実度アバターを作成する新しい手法を提案する。
本手法は異なる髪型にまたがる局所的類似性を生かして,数百人のマルチビュー撮影に先立ち,普遍的な髪の出現を学習する。
この先行モデルは、入力として3次元配向の特徴を取り入れ、スパース点雲上に色で条件付けられた高密度放射場を生成する。
我々のモデルは、異なるヘアスタイルをローカルプリミティブに分割し、そのレベルで構築するので、様々なヘアトポロジーを扱うことができる。
実験により,本モデルは多種多様なヘアスタイルを捕捉し,新しいヘアスタイルに挑戦する上で有効であることを示す。
実験結果から,本手法は,フルヘアのフォトリアリスティックなパーソナライズされたアバターをキャプチャーし,生成する際の最先端のアプローチを改善することが示された。
関連論文リスト
- Hairmony: Fairness-aware hairstyle classification [10.230933455074634]
本稿では,人物の髪型を1つの画像から予測する手法を提案する。
モデルをトレーニングするために、合成データのみを使用します。
ドメインエキスパートの多様なグループと共同で開発された,新しい髪型分類法を導入する。
論文 参考訳(メタデータ) (2024-10-15T12:00:36Z) - Towards Unified 3D Hair Reconstruction from Single-View Portraits [27.404011546957104]
そこで本研究では,統一パイプラインによるヘアタイプの一視点3D再構成を実現するための新しい手法を提案する。
本実験は, 単一視像からの編み型3次元毛髪と非編み型3次元毛髪の再構築が可能であることを示す。
論文 参考訳(メタデータ) (2024-09-25T12:21:31Z) - What to Preserve and What to Transfer: Faithful, Identity-Preserving Diffusion-based Hairstyle Transfer [35.80645300182437]
既存のヘアスタイルのトランスファーアプローチは、トリミングされた顔画像とアライメントされた顔画像に基づいて事前訓練されたStyleGANに依存している。
本稿では,現実のシナリオに適用可能な一段階のヘアスタイル転移拡散モデルであるHairFusionを提案する。
本手法は, ヘアスタイルと周辺特性の整合性を維持する既存手法と比較して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-29T11:30:21Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - HairFIT: Pose-Invariant Hairstyle Transfer via Flow-based Hair Alignment
and Semantic-Region-Aware Inpainting [26.688276902813495]
ポーズ不変ヘアスタイル転送のための新しいフレームワークであるHairFITを提案する。
本モデルは,フローベース毛髪アライメントと毛髪合成の2段階からなる。
我々のSIM推定器は、画像中の隠蔽領域を異なる意味領域に分割し、塗装中の特徴を反映する。
論文 参考訳(メタデータ) (2022-06-17T06:55:20Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。