論文の概要: Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction
- arxiv url: http://arxiv.org/abs/2306.05872v1
- Date: Fri, 9 Jun 2023 13:08:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 13:19:34.013962
- Title: Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction
- Title(参考訳): Neural Haircut:前ガイド型ストランドベースヘアコンストラクション
- Authors: Vanessa Sklyarova (1), Jenya Chelishev (2), Andreea Dogaru (3), Igor
Medvedev (1), Victor Lempitsky (4), Egor Zakharov (1) ((1) Samsung AI Center,
(2) Rockstar Games, (3) FAU Erlangen-N\"urnberg, (4) Cinemersive Labs)
- Abstract要約: 本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating realistic human 3D reconstructions using image or video data is
essential for various communication and entertainment applications. While
existing methods achieved impressive results for body and facial regions,
realistic hair modeling still remains challenging due to its high mechanical
complexity. This work proposes an approach capable of accurate hair geometry
reconstruction at a strand level from a monocular video or multi-view images
captured in uncontrolled lighting conditions. Our method has two stages, with
the first stage performing joint reconstruction of coarse hair and bust shapes
and hair orientation using implicit volumetric representations. The second
stage then estimates a strand-level hair reconstruction by reconciling in a
single optimization process the coarse volumetric constraints with hair strand
and hairstyle priors learned from the synthetic data. To further increase the
reconstruction fidelity, we incorporate image-based losses into the fitting
process using a new differentiable renderer. The combined system, named Neural
Haircut, achieves high realism and personalization of the reconstructed
hairstyles.
- Abstract(参考訳): 画像や映像データを用いたリアルな3d再構成は,様々なコミュニケーションやエンタテインメントアプリケーションにおいて不可欠である。
既存の手法は体と顔の領域で印象的な結果を得たが、機械的な複雑さのため、現実的な髪型モデリングは依然として困難である。
本研究は,無制御照明条件で撮影された単眼映像や多視点画像からストランドレベルで正確な毛髪形状再構成を可能にする手法を提案する。
提案手法は2段階であり,第1段階は暗黙の容積表現を用いた粗い毛髪とバスト形状と毛髪方向の関節再建を行った。
第2段階では、合成データから得られた毛髪ストランドと髪型プリエントとの粗い容積制約を単一の最適化プロセスで調整することにより、鎖レベルの毛髪再構成を推定する。
復元精度をさらに高めるため,新たな微分可能レンダラを用いて画像ベースロスをフィッティングプロセスに組み込む。
この組み合わせシステムはニューラルヘアカット(neural haircut)と呼ばれ、再構成されたヘアスタイルを高いリアリズムとパーソナライズを達成する。
関連論文リスト
- Towards Unified 3D Hair Reconstruction from Single-View Portraits [27.404011546957104]
そこで本研究では,統一パイプラインによるヘアタイプの一視点3D再構成を実現するための新しい手法を提案する。
本実験は, 単一視像からの編み型3次元毛髪と非編み型3次元毛髪の再構築が可能であることを示す。
論文 参考訳(メタデータ) (2024-09-25T12:21:31Z) - Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - Perm: A Parametric Representation for Multi-Style 3D Hair Modeling [22.790597419351528]
Permは、さまざまな毛髪関連の応用を促進するために設計された人間の3D毛髪のパラメトリックモデルである。
周波数領域におけるPCAに基づくストランド表現を用いて,グローバルヘア形状と局所ストランド詳細をアンタングル化することを提案する。
これらのテクスチャは後に異なる生成モデルでパラメータ化され、ヘアモデリングプロセスの一般的な段階をエミュレートする。
論文 参考訳(メタデータ) (2024-07-28T10:05:11Z) - MonoHair: High-Fidelity Hair Modeling from a Monocular Video [40.27026803872373]
MonoHairはモノクロビデオから高忠実度毛髪再構築を実現するための汎用フレームワークである。
提案手法は, 毛髪のモデリング過程を, 正確な外装再構築と内部構造推定の2つの段階に分岐させる。
実験により,本手法は多彩なヘアスタイルにまたがって頑健性を示し,最先端の性能を実現していることが示された。
論文 参考訳(メタデータ) (2024-03-27T08:48:47Z) - GaussianHair: Hair Modeling and Rendering with Light-aware Gaussians [41.52673678183542]
本稿では,新鮮な毛髪表現であるGaussianHairについて述べる。
ヘア幾何学と画像からの外観の包括的モデリングを可能にし、革新的な照明効果と動的アニメーション能力を育む。
我々はこのモデルを"GaussianHair Scattering Model"でさらに強化し、ヘアストランドの細い構造を再現し、均一な照明で局所的な拡散色を正確に捉えた。
論文 参考訳(メタデータ) (2024-02-16T07:13:24Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Towards High Fidelity Monocular Face Reconstruction with Rich
Reflectance using Self-supervised Learning and Ray Tracing [49.759478460828504]
ディープニューラルネットワークエンコーダと異なるレンダリングを組み合わせた手法が、幾何学、照明、反射の非常に高速な単分子再構成の道を開いた。
古典的な最適化ベースのフレームワーク内での単眼顔再構築のためにレイトレースが導入されました。
一般シーンにおける復元品質と堅牢性を大幅に向上させる新しい手法を提案します。
論文 参考訳(メタデータ) (2021-03-29T08:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。