論文の概要: Animatable Neural Implicit Surfaces for Creating Avatars from Videos
- arxiv url: http://arxiv.org/abs/2203.08133v1
- Date: Tue, 15 Mar 2022 17:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:47:53.300571
- Title: Animatable Neural Implicit Surfaces for Creating Avatars from Videos
- Title(参考訳): 映像からアバターを作るためのアニマタブルニューラルネットワーク
- Authors: Sida Peng, Shangzhan Zhang, Zhen Xu, Chen Geng, Boyi Jiang, Hujun Bao,
Xiaowei Zhou
- Abstract要約: 本論文は, カメラビューの少ない映像から, アニマタブルな人間モデルを再構築することを目的とする。
提案手法は, 大規模なマージン合成による最近のヒトの再建と方法より優れている。
- 参考スコア(独自算出の注目度): 45.685483726861584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to reconstruct an animatable human model from a video of very
sparse camera views. Some recent works represent human geometry and appearance
with neural radiance fields and utilize parametric human models to produce
deformation fields for animation, which enables them to recover detailed 3D
human models from videos. However, their reconstruction results tend to be
noisy due to the lack of surface constraints on radiance fields. Moreover, as
they generate the human appearance in 3D space, their rendering quality heavily
depends on the accuracy of deformation fields. To solve these problems, we
propose Animatable Neural Implicit Surface (AniSDF), which models the human
geometry with a signed distance field and defers the appearance generation to
the 2D image space with a 2D neural renderer. The signed distance field
naturally regularizes the learned geometry, enabling the high-quality
reconstruction of human bodies, which can be further used to improve the
rendering speed. Moreover, the 2D neural renderer can be learned to compensate
for geometric errors, making the rendering more robust to inaccurate
deformations. Experiments on several datasets show that the proposed approach
outperforms recent human reconstruction and synthesis methods by a large
margin.
- Abstract(参考訳): 本論文は, カメラビューの少ない映像から, アニマタブルな人間モデルを再構築することを目的とする。
最近のいくつかの作品は、人間の幾何学と神経放射の場を表現し、パラメトリックな人間のモデルを使ってアニメーションの変形場を作り、ビデオから詳細な3d人間のモデルを復元する。
しかし, 放射界表面の制約が欠如しているため, 復元結果はノイズが多い傾向にある。
さらに、3次元空間における人間の外観を生成するため、そのレンダリング品質は変形場の精度に大きく依存する。
これらの問題を解決するために, 人体形状を符号付き距離場でモデル化し, 2次元ニューラルレンダラーで2次元画像空間への外観生成をデフェクトする Animatable Neural Implicit Surface (AniSDF) を提案する。
符号付き距離場は学習した幾何学を自然に規則化し、人間の身体の高品質な再構築を可能にし、レンダリング速度を改善するためにさらに使用できる。
さらに、2Dニューラルレンダラーは幾何誤差を補うことができるため、不正確な変形に対してより堅牢である。
いくつかのデータセットにおける実験により、提案手法は、最近のヒトの再構成および合成法を大きなマージンで上回っていることが示されている。
関連論文リスト
- Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - Point-Based Radiance Fields for Controllable Human Motion Synthesis [7.322100850632633]
本稿では,静的な点ベース放射場に基づく微細変形のための制御可能な人体動作合成法を提案する。
提案手法は,静的な3次元シーンをトレーニングするために明示的な点雲を利用し,点雲変換を符号化して変形を適用した。
我々の手法は、人間以外の他の3Dキャラクタに一般化できる、微細な複雑な変形に関する最先端技術よりもはるかに優れている。
論文 参考訳(メタデータ) (2023-10-05T08:27:33Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Animatable Neural Radiance Fields for Human Body Modeling [54.41477114385557]
本稿では,多視点映像から人間モデルを再構築する課題について述べる。
変形場を生成するためにニューラルブレンド重量場を導入する。
実験の結果,我々のアプローチは最近の人間の手法を大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-05-06T17:58:13Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。