論文の概要: NeuralHDHair: Automatic High-fidelity Hair Modeling from a Single Image
Using Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2205.04175v1
- Date: Mon, 9 May 2022 10:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:05:44.862542
- Title: NeuralHDHair: Automatic High-fidelity Hair Modeling from a Single Image
Using Implicit Neural Representations
- Title(参考訳): NeuralHDHair: 入射型ニューラル表現を用いた単一画像からの高忠実ヘアモデリング
- Authors: Keyu Wu, Yifan Ye, Lingchen Yang, Hongbo Fu, Kun Zhou, Youyi Zheng
- Abstract要約: 我々は単一画像から高忠実度毛髪をモデリングするための柔軟で完全な自動システムであるNeuralHDHairを紹介する。
本稿では,世界毛髪の特徴を表すために,新しいvoxel-aligned implicit function (VIFu)を提案する。
従来の毛髪成長アルゴリズムの効率を向上させるために, 推定した3次元毛髪の幾何学的特徴に基づいて, 局所的な神経暗黙関数を用いてストランドを成長させる。
- 参考スコア(独自算出の注目度): 40.14104266690989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Undoubtedly, high-fidelity 3D hair plays an indispensable role in digital
humans. However, existing monocular hair modeling methods are either tricky to
deploy in digital systems (e.g., due to their dependence on complex user
interactions or large databases) or can produce only a coarse geometry. In this
paper, we introduce NeuralHDHair, a flexible, fully automatic system for
modeling high-fidelity hair from a single image. The key enablers of our system
are two carefully designed neural networks: an IRHairNet (Implicit
representation for hair using neural network) for inferring high-fidelity 3D
hair geometric features (3D orientation field and 3D occupancy field)
hierarchically and a GrowingNet(Growing hair strands using neural network) to
efficiently generate 3D hair strands in parallel. Specifically, we perform a
coarse-to-fine manner and propose a novel voxel-aligned implicit function
(VIFu) to represent the global hair feature, which is further enhanced by the
local details extracted from a hair luminance map. To improve the efficiency of
a traditional hair growth algorithm, we adopt a local neural implicit function
to grow strands based on the estimated 3D hair geometric features. Extensive
experiments show that our method is capable of constructing a high-fidelity 3D
hair model from a single image, both efficiently and effectively, and achieves
the-state-of-the-art performance.
- Abstract(参考訳): デジタル人間には、高忠実な3D髪が不可欠だ。
しかし、既存の単眼毛のモデリング手法は、デジタルシステム(例えば、複雑なユーザインタラクションや大きなデータベースに依存するため)へのデプロイが難しいか、粗い幾何学しか生成できない。
本稿では,1枚の画像から高忠実度毛髪をモデリングする柔軟で完全自動システムであるNeuralHDHairを紹介する。
本システムの主な実現方法は,階層的に高忠実な3dヘア幾何学的特徴を推測するirhairnet (implicit representation for hair using neural network) と,効率的に3dヘアストランドを並列に生成する growingnet ( growing hair strands using neural network) の2つである。
具体的には, 毛髪特徴を表現し, 毛髪の輝度マップから抽出した局所的詳細によりさらに高められた, 毛髪特徴を表す新しいボクセル型暗黙関数 (VIFu) を提案する。
従来の毛髪成長アルゴリズムの効率を向上させるために,推定された3次元毛髪幾何学的特徴に基づいてストランドを成長させるために局所的神経暗黙関数を採用する。
広範にわたる実験により,1枚の画像から高精細な3dヘアモデルを構築することが可能となり,その性能が向上した。
関連論文リスト
- Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - HHAvatar: Gaussian Head Avatar with Dynamic Hairs [27.20228210350169]
動的ヘアモデリングを用いた高忠実度頭部アバターの3次元ガウスアン制御が可能なアバターを提案する。
提案手法は,2K解像度で超高忠実なレンダリング品質を実現するため,最先端のスパースビュー法よりも優れている。
論文 参考訳(メタデータ) (2023-12-05T11:01:44Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Free-HeadGAN: Neural Talking Head Synthesis with Explicit Gaze Control [54.079327030892244]
Free-HeadGANは、人為的なニューラルトーキングヘッド合成システムである。
本研究では,3次元顔のランドマークが不足している顔のモデリングが,最先端の生成性能を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-03T16:46:08Z) - Neural Strands: Learning Hair Geometry and Appearance from Multi-View
Images [40.91569888920849]
マルチビュー画像入力から正確な毛髪形状と外観をモデル化する新しい学習フレームワークであるNeural Strandsを提案する。
学習したヘアモデルは、高忠実度ビュー依存効果のあるあらゆる視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-28T13:08:46Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。