論文の概要: HumanRecon: Neural Reconstruction of Dynamic Human Using Geometric Cues
and Physical Priors
- arxiv url: http://arxiv.org/abs/2311.15171v1
- Date: Sun, 26 Nov 2023 03:06:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:58:07.144903
- Title: HumanRecon: Neural Reconstruction of Dynamic Human Using Geometric Cues
and Physical Priors
- Title(参考訳): humanrecon: 幾何学的手がかりと物理前兆を用いた動的ヒトの神経再構築
- Authors: Junhui Yin, Wei Yin, Hao Chen, Xuqian Ren, Zhanyu Ma, Jun Guo, Yifan
Liu
- Abstract要約: 本研究では,人間の動的再構成のための暗黙表現学習における推定深度と正規度の幾何学的制約について考察する。
また、視野方向へのノイズの追加や、人体表面の密度の最大化など、いくつかの有益な物理的先行性も活用しています。
- 参考スコア(独自算出の注目度): 31.15329654138382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent methods for dynamic human reconstruction have attained promising
reconstruction results. Most of these methods rely only on RGB color
supervision without considering explicit geometric constraints. This leads to
existing human reconstruction techniques being more prone to overfitting to
color and causes geometrically inherent ambiguities, especially in the sparse
multi-view setup.
Motivated by recent advances in the field of monocular geometry prediction,
we consider the geometric constraints of estimated depth and normals in the
learning of neural implicit representation for dynamic human reconstruction. As
a geometric regularization, this provides reliable yet explicit supervision
information, and improves reconstruction quality. We also exploit several
beneficial physical priors, such as adding noise into view direction and
maximizing the density on the human surface. These priors ensure the color
rendered along rays to be robust to view direction and reduce the inherent
ambiguities of density estimated along rays. Experimental results demonstrate
that depth and normal cues, predicted by human-specific monocular estimators,
can provide effective supervision signals and render more accurate images.
Finally, we also show that the proposed physical priors significantly reduce
overfitting and improve the overall quality of novel view synthesis. Our code
is available
at:~\href{https://github.com/PRIS-CV/HumanRecon}{https://github.com/PRIS-CV/HumanRecon}.
- Abstract(参考訳): 近年の動的再建法は有望な再建結果を得た。
これらの手法の多くは、明示的な幾何学的制約を考慮せずにRGB色監視のみに依存している。
これにより、既存の人間の再構築技術は色に過度にフィットしやすくなり、幾何学的に固有の曖昧さ、特に疎らなマルチビュー設定を引き起こす。
分子形状予測の分野での最近の進歩に触発されて、動的人間の再構築のための暗黙表現の学習において、推定深度と正規度の幾何学的制約を考える。
幾何正規化として、信頼できるが明示的な監視情報を提供し、再構築品質を向上させる。
また,視覚方向へのノイズの付加やヒト表面の密度の最大化など,いくつかの物理的に有益な先行技術も活用する。
これらの先行は、光線に沿って描画された色が方向を見るために堅牢であることを保証するとともに、光線に沿って推定される密度の本来のあいまいさを低減する。
実験の結果,人間固有の単分子推定器によって予測される深度と正常な手がかりは,効果的な監視信号を提供し,より正確な画像の描画を可能にすることが示された。
最後に,提案する物理プライオリティにより,過剰フィッティングが著しく減少し,新規ビュー合成の全体的な品質が向上することを示す。
私たちのコードは、~\href{https://github.com/PRIS-CV/HumanRecon}{https://github.com/PRIS-CV/HumanRecon}で利用可能です。
関連論文リスト
- ANIM: Accurate Neural Implicit Model for Human Reconstruction from a single RGB-D image [40.03212588672639]
ANIMは単視点RGB-D画像から任意の3次元形状を前例のない精度で再構成する新しい手法である。
我々のモデルは、深度情報を活用するためにピクセル整列とボクセル整列の両方の機能から幾何学的詳細を学習する。
実験によると、ANIMはRGB、表面正規、ポイントクラウド、RGB-Dデータを入力として使用する最先端の作業よりも優れている。
論文 参考訳(メタデータ) (2024-03-15T14:45:38Z) - NeuSurf: On-Surface Priors for Neural Surface Reconstruction from Sparse
Input Views [41.03837477483364]
本研究では,表面の高度に忠実な再構成を実現するために,地上の事前情報を活用する新しいスパース・ビュー・リコンストラクション・フレームワークを提案する。
具体的には,大域的幾何アライメントと局所的幾何洗練に関するいくつかの制約を設計し,粗い形状と細部を協調的に最適化する。
DTUとBlendedMVSデータセットによる2つの一般的なスパース設定の実験結果は、最先端の手法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2023-12-21T16:04:45Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Improving Neural Indoor Surface Reconstruction with Mask-Guided Adaptive
Consistency Constraints [0.6749750044497732]
本稿では、ビュー依存色とビュー非依存色を分離する2段階のトレーニングプロセスを提案し、さらに2つの新しい一貫性制約を活用して、余分な事前処理を必要とせず、詳細な再構成性能を向上させる。
合成および実世界のデータセットの実験は、事前推定誤差から干渉を減らす能力を示している。
論文 参考訳(メタデータ) (2023-09-18T13:05:23Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Geometry-Guided Progressive NeRF for Generalizable and Efficient Neural
Human Rendering [139.159534903657]
我々は、高忠実度自由視点人体詳細のための一般化可能で効率的なニューラルレーダランス・フィールド(NeRF)パイプラインを開発した。
自己閉塞性を改善するため,幾何誘導型多視点機能統合手法を考案した。
高いレンダリング効率を達成するため,幾何誘導型プログレッシブレンダリングパイプラインを導入する。
論文 参考訳(メタデータ) (2021-12-08T14:42:10Z) - Neural Free-Viewpoint Performance Rendering under Complex Human-object
Interactions [35.41116017268475]
没入型VR/AR体験と人間の活動理解には,人間と物体の相互作用の4次元再構築が不可欠である。
近年の進歩は、細かなRGB入力から細かな幾何学やテクスチャ結果の回復には至っていない。
本研究では,人間と物体の高画質なテクスチャとフォトリアリスティックなテクスチャを両立させるニューラル・ヒューマン・パフォーマンス・キャプチャー・レンダリングシステムを提案する。
論文 参考訳(メタデータ) (2021-08-01T04:53:54Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Consistent Video Depth Estimation [57.712779457632024]
モノクロ映像中の全画素に対して, 密度, 幾何的に整合した深度を再構成するアルゴリズムを提案する。
動画中の画素の幾何的制約を確立するために、従来の動きから再構成した構造を利用する。
我々のアルゴリズムは、手持ちの映像をある程度のダイナミックな動きで処理することができる。
論文 参考訳(メタデータ) (2020-04-30T17:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。