論文の概要: ARAH: Animatable Volume Rendering of Articulated Human SDFs
- arxiv url: http://arxiv.org/abs/2210.10036v1
- Date: Tue, 18 Oct 2022 17:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:15:04.322317
- Title: ARAH: Animatable Volume Rendering of Articulated Human SDFs
- Title(参考訳): ARAH:Articulated Human SDFsのアニメーションボリュームレンダリング
- Authors: Shaofei Wang and Katja Schwarz and Andreas Geiger and Siyu Tang
- Abstract要約: 本研究では, 分布外ポーズによく適応する詳細な形状の, アニマタブルな衣服付きアバターを作成するモデルを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
本手法は, アニマタブルアバターを作成しながら, 幾何と外観再構成の最先端性能を実現する。
- 参考スコア(独自算出の注目度): 37.48271522183636
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Combining human body models with differentiable rendering has recently
enabled animatable avatars of clothed humans from sparse sets of multi-view RGB
videos. While state-of-the-art approaches achieve realistic appearance with
neural radiance fields (NeRF), the inferred geometry often lacks detail due to
missing geometric constraints. Further, animating avatars in
out-of-distribution poses is not yet possible because the mapping from
observation space to canonical space does not generalize faithfully to unseen
poses. In this work, we address these shortcomings and propose a model to
create animatable clothed human avatars with detailed geometry that generalize
well to out-of-distribution poses. To achieve detailed geometry, we combine an
articulated implicit surface representation with volume rendering. For
generalization, we propose a novel joint root-finding algorithm for
simultaneous ray-surface intersection search and correspondence search. Our
algorithm enables efficient point sampling and accurate point canonicalization
while generalizing well to unseen poses. We demonstrate that our proposed
pipeline can generate clothed avatars with high-quality pose-dependent geometry
and appearance from a sparse set of multi-view RGB videos. Our method achieves
state-of-the-art performance on geometry and appearance reconstruction while
creating animatable avatars that generalize well to out-of-distribution poses
beyond the small number of training poses.
- Abstract(参考訳): 異なるレンダリングで人体モデルを組み合わせることで、多視点RGBビデオのスパースセットから、服を着た人間のアニマタブルなアバターが利用可能になった。
最先端のアプローチはニューラルラジアンス場(NeRF)で現実的な外観を実現するが、推論幾何は幾何学的制約の欠如により詳細を欠いていることが多い。
さらに、観測空間から標準空間への写像が、目に見えないポーズに忠実に一般化しないため、分布外ポーズにおけるアバターのアニメーションはまだ不可能である。
本研究は,これらの欠点に対処し,分布外ポーズをうまく一般化した詳細な形状の,アニマタブルな衣服付きアバターを作成するモデルを提案する。
詳細な幾何学を実現するために,明瞭な表面表現とボリュームレンダリングを組み合わせる。
一般化のために,線面交叉探索と対応探索を同時に行う結合根探索アルゴリズムを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
提案するパイプラインは,多視点RGBビデオのスパースセットから高品質なポーズ依存幾何と外観を持つ布張りアバターを生成することができることを示す。
本手法は,少数のトレーニングポーズ以上の分布ポーズによく一般化したアニマタブルなアバターを作成しながら,幾何学的・外観的再構成における最先端のパフォーマンスを実現する。
関連論文リスト
- HR Human: Modeling Human Avatars with Triangular Mesh and High-Resolution Textures from Videos [52.23323966700072]
本研究では,モノクロ映像から高精細な物理材料テクスチャとメッシュを付加したアバターの取得のための枠組みを提案する。
本手法では,モノクロ映像からの情報を組み合わせて仮想多視点画像の合成を行う新しい情報融合方式を提案する。
実験により, 提案手法は, 高忠実度で従来の表現よりも優れており, この明示的な結果は共通三角形への展開をサポートすることが示された。
論文 参考訳(メタデータ) (2024-05-18T11:49:09Z) - Neural Image-based Avatars: Generalizable Radiance Fields for Human
Avatar Modeling [28.242591786838936]
スパースな多視点画像から、任意の人間のパフォーマーの斬新なビューと新しいポーズを可能にする手法を提案する。
提案手法の重要な要素は,暗示体NeRF表現と画像ベースレンダリングの利点を組み合わせたハイブリッド外観ブレンディングモジュールである。
論文 参考訳(メタデータ) (2023-04-10T23:53:28Z) - AniPixel: Towards Animatable Pixel-Aligned Human Avatar [65.7175527782209]
AniPixelは、アニマタブルで一般化可能なヒトアバター再構成法である。
本研究では, 骨格変形に基づく神経スキンフィールドを提案し, 標的-カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カ
実験では、AniPixelは最先端の手法よりも優れた新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしている。
論文 参考訳(メタデータ) (2023-02-07T11:04:14Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - Structured Local Radiance Fields for Human Avatar Modeling [40.123537202191564]
本稿では,近年のニューラルシーンレンダリング技術に基づく新しい表現を提案する。
我々の表現の中核は、統計的な人体テンプレートでサンプリングされた事前定義されたノードに固定された、構造化された局所放射界の集合である。
本手法は, 被検体固有のテンプレートをスキャンすることなく, 各種の衣服用アニマタブルな人体アバターの自動構築を可能にする。
論文 参考訳(メタデータ) (2022-03-28T03:43:52Z) - Animatable Neural Radiance Fields from Monocular RGB Video [72.6101766407013]
単眼ビデオからの詳細な人体アバター作成のためのアニマタブル神経放射場について述べる。
我々のアプローチは、明示的なポーズ誘導変形を導入することで、人間の動きを伴う動的シーンに神経放射場を拡大する。
実験の結果, 提案手法は, 1) 質の高い細部を持つ暗黙の人間の形状と外観の復元, 2) 任意の視点からの人間の写真リアルなレンダリング, 3) 任意のポーズを持つ人間のアニメーションを実現する。
論文 参考訳(メタデータ) (2021-06-25T13:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。