論文の概要: Neural Body: Implicit Neural Representations with Structured Latent
Codes for Novel View Synthesis of Dynamic Humans
- arxiv url: http://arxiv.org/abs/2012.15838v2
- Date: Mon, 29 Mar 2021 14:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:05:46.413049
- Title: Neural Body: Implicit Neural Representations with Structured Latent
Codes for Novel View Synthesis of Dynamic Humans
- Title(参考訳): ニューラルボディ:動的人間の新しい視点合成のための構造化潜在符号を用いた暗黙のニューラル表現
- Authors: Sida Peng, Yuanqing Zhang, Yinghao Xu, Qianqian Wang, Qing Shuai,
Hujun Bao, Xiaowei Zhou
- Abstract要約: 本稿では,人間の演奏者に対する新しい視点合成の課題について,カメラビューの少なさから考察する。
異なるフレームで学習されたニューラルネットワーク表現が、変形可能なメッシュにアンカーされた同じ遅延コードセットを共有することを前提とした新しい人体表現であるNeural Bodyを提案する。
ZJU-MoCapの実験により、我々の手法は、新規なビュー合成品質において、先行研究よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 56.63912568777483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the challenge of novel view synthesis for a human
performer from a very sparse set of camera views. Some recent works have shown
that learning implicit neural representations of 3D scenes achieves remarkable
view synthesis quality given dense input views. However, the representation
learning will be ill-posed if the views are highly sparse. To solve this
ill-posed problem, our key idea is to integrate observations over video frames.
To this end, we propose Neural Body, a new human body representation which
assumes that the learned neural representations at different frames share the
same set of latent codes anchored to a deformable mesh, so that the
observations across frames can be naturally integrated. The deformable mesh
also provides geometric guidance for the network to learn 3D representations
more efficiently. To evaluate our approach, we create a multi-view dataset
named ZJU-MoCap that captures performers with complex motions. Experiments on
ZJU-MoCap show that our approach outperforms prior works by a large margin in
terms of novel view synthesis quality. We also demonstrate the capability of
our approach to reconstruct a moving person from a monocular video on the
People-Snapshot dataset. The code and dataset are available at
https://zju3dv.github.io/neuralbody/.
- Abstract(参考訳): 本論文は, カメラビューの細かな集合から, 人間のパフォーマーのための新しいビュー合成の課題に対処する。
最近の研究により、3dシーンの暗黙的な神経表現の学習は、深い入力ビューによって顕著なビュー合成品質を達成することが示されている。
しかし、ビューが極めてスパースであれば、表現学習は不適切になる。
この不正な問題を解くため、我々はビデオフレーム上の観察を統合することを目的としている。
この目的のために我々は,異なるフレームにおける学習されたニューラルネットワーク表現が,変形可能なメッシュに固定された潜在コードと同じセットを共有することを前提とした,新しい人体表現であるNeural Bodyを提案する。
変形可能なメッシュはまた、ネットワークがより効率的に3d表現を学ぶための幾何学的ガイダンスを提供する。
このアプローチを評価するために、複雑な動きを持つパフォーマーをキャプチャするZJU-MoCapというマルチビューデータセットを作成しました。
ZJU-MoCapの実験により、我々の手法は、新規なビュー合成品質において、先行研究よりも優れた性能を示した。
また,本手法では,人撮りデータセット上の単眼映像から移動人物を再構築する能力を示す。
コードとデータセットはhttps://zju3dv.github.io/neuralbody/で入手できる。
関連論文リスト
- Novel View Synthesis of Humans using Differentiable Rendering [50.57718384229912]
我々は新しいポーズで人々の新しい視点を合成するための新しいアプローチを提案する。
我々の合成はヒトの骨格構造を表す拡散ガウス原始体を用いる。
これらのプリミティブをレンダリングすると、高次元の潜像が得られ、デコーダネットワークによってRGBイメージに変換される。
論文 参考訳(メタデータ) (2023-03-28T10:48:33Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Remote Sensing Novel View Synthesis with Implicit Multiplane
Representations [26.33490094119609]
暗黙的ニューラル表現の最近の進歩を活用して,新しいリモートセンシングビュー合成法を提案する。
リモートセンシング画像のオーバーヘッドと遠距離イメージングを考慮し,暗黙のマルチプレーン画像(MPI)表現とディープニューラルネットワークを組み合わせることで,3次元空間を表現する。
任意の新規ビューの画像は、再構成されたモデルに基づいて自由にレンダリングすることができる。
論文 参考訳(メタデータ) (2022-05-18T13:03:55Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - Human View Synthesis using a Single Sparse RGB-D Input [16.764379184593256]
本稿では,RGB-Dが疎い単一ビューセンサから取得した映像からリアルなレンダリングを生成するための,新しいビュー合成フレームワークを提案する。
エンハンサーネットワークは、元のビューから隠された領域でも全体の忠実さを活用し、細部まで細部までクリップレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-27T20:13:53Z) - Human Pose Manipulation and Novel View Synthesis using Differentiable
Rendering [46.04980667824064]
我々は新しいポーズで人々の新しい視点を合成するための新しいアプローチを提案する。
我々の合成はヒトの骨格構造を表す拡散ガウス原始体を用いる。
これらのプリミティブをレンダリングすると、高次元の潜像が得られ、デコーダネットワークによってRGBイメージに変換される。
論文 参考訳(メタデータ) (2021-11-24T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。