論文の概要: HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture
- arxiv url: http://arxiv.org/abs/2112.06904v1
- Date: Mon, 13 Dec 2021 18:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 18:37:33.849064
- Title: HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture
- Title(参考訳): HVH:ダイナミックヘアパフォーマンスキャプチャのためのハイブリッドニューラルネットワークボリューム表現学習
- Authors: Ziyan Wang, Giljoo Nam, Tuur Stuyck, Stephen Lombardi, Michael
Zollhoefer, Jessica Hodgins, Christoph Lassner
- Abstract要約: ヘアは信じられないアバターにとって重要な要素である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
信頼性の高い制御信号を得るために,本研究では,毛髪をストランドレベルで追跡する方法を提案する。
計算作業を管理できるように、ガイドヘアと古典的なテクニックを使って、それらを密集したヘアフードに拡張します。
- 参考スコア(独自算出の注目度): 11.645769995924548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing and rendering life-like hair is particularly challenging due to its
fine geometric structure, the complex physical interaction and its non-trivial
visual appearance.Yet, hair is a critical component for believable avatars. In
this paper, we address the aforementioned problems: 1) we use a novel,
volumetric hair representation that is com-posed of thousands of primitives.
Each primitive can be rendered efficiently, yet realistically, by building on
the latest advances in neural rendering. 2) To have a reliable control signal,
we present a novel way of tracking hair on the strand level. To keep the
computational effort manageable, we use guide hairs and classic techniques to
expand those into a dense hood of hair. 3) To better enforce temporal
consistency and generalization ability of our model, we further optimize the 3D
scene flow of our representation with multi-view optical flow, using volumetric
ray marching. Our method can not only create realistic renders of recorded
multi-view sequences, but also create renderings for new hair configurations by
providing new control signals. We compare our method with existing work on
viewpoint synthesis and drivable animation and achieve state-of-the-art
results.
- Abstract(参考訳): 生命のような髪の捕獲やレンダリングは、幾何学的な構造、複雑な身体的相互作用、非自明な視覚的な外観などによって特に困難である。
本稿では,上記の問題について述べる。
1) 数千個のプリミティブを複合した, 新規な容積的な毛髪表現を用いる。
各プリミティブは、ニューラルレンダリングの最新技術に基づいて構築することで、効率的かつ現実的にレンダリングすることができる。
2) 信頼性の高い制御信号を得るためには, 毛髪をストランドレベルで追跡する新しい方法を提案する。
計算作業を管理できるように、ガイドヘアと古典的なテクニックを使って、それらを密集したヘアフードに拡張します。
3)モデルの時間的一貫性と一般化能力を向上するために,体積線マーチングを用いた多視点光流による表現の3次元シーンフローをさらに最適化する。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
本手法をビューポイント合成とdivableアニメーションに関する既存の研究と比較し,最新の結果を得た。
関連論文リスト
- MonoHair: High-Fidelity Hair Modeling from a Monocular Video [40.27026803872373]
MonoHairはモノクロビデオから高忠実度毛髪再構築を実現するための汎用フレームワークである。
提案手法は, 毛髪のモデリング過程を, 正確な外装再構築と内部構造推定の2つの段階に分岐させる。
実験により,本手法は多彩なヘアスタイルにまたがって頑健性を示し,最先端の性能を実現していることが示された。
論文 参考訳(メタデータ) (2024-03-27T08:48:47Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Efficient Meshy Neural Fields for Animatable Human Avatars [87.68529918184494]
高忠実でアニマブルな人間のアバターをビデオから効果的にデジタル化することは、挑戦的で活発な研究課題である。
最近のレンダリングベースのニューラル表現は、フレンドリーなユーザビリティと光変化の再現性を備えた、人間のデジタル化の新しい方法を開く。
アニマタブルなヒトアバターを再構築するために,メッシュニューラルネットワークを効果的に学習する手法であるEMAを提案する。
論文 参考訳(メタデータ) (2023-03-23T00:15:34Z) - NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and
Animation [23.625243364572867]
人間の髪のキャプチャーとアニメーションは、バーチャルリアリティーのための現実的なアバターを作成する上で大きな課題の2つだ。
データ駆動方式でこれらの課題に対処するために、頭から独立して毛髪をモデル化する2段階のアプローチを提案する。
本モデルでは, 毛髪観察を駆動信号として必要とせず, 新規な毛髪アニメーションを作成することができる。
論文 参考訳(メタデータ) (2022-12-01T16:09:54Z) - Neural Strands: Learning Hair Geometry and Appearance from Multi-View
Images [40.91569888920849]
マルチビュー画像入力から正確な毛髪形状と外観をモデル化する新しい学習フレームワークであるNeural Strandsを提案する。
学習したヘアモデルは、高忠実度ビュー依存効果のあるあらゆる視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-28T13:08:46Z) - NeuralHDHair: Automatic High-fidelity Hair Modeling from a Single Image
Using Implicit Neural Representations [40.14104266690989]
我々は単一画像から高忠実度毛髪をモデリングするための柔軟で完全な自動システムであるNeuralHDHairを紹介する。
本稿では,世界毛髪の特徴を表すために,新しいvoxel-aligned implicit function (VIFu)を提案する。
従来の毛髪成長アルゴリズムの効率を向上させるために, 推定した3次元毛髪の幾何学的特徴に基づいて, 局所的な神経暗黙関数を用いてストランドを成長させる。
論文 参考訳(メタデータ) (2022-05-09T10:39:39Z) - HVTR: Hybrid Volumetric-Textural Rendering for Human Avatars [65.82222842213577]
本稿では,任意のポーズから人間の仮想アバターを効率よく,高品質に合成するニューラルレンダリングパイプラインを提案する。
まず,人体表面の高密度UV多様体上での人間の動きを符号化する。
次に、UV多様体上の符号化情報を利用して、3次元体積表現を構成する。
論文 参考訳(メタデータ) (2021-12-19T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。