論文の概要: Accurate Human Body Reconstruction for Volumetric Video
- arxiv url: http://arxiv.org/abs/2202.13118v1
- Date: Sat, 26 Feb 2022 11:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:42:21.748931
- Title: Accurate Human Body Reconstruction for Volumetric Video
- Title(参考訳): ボリュームビデオのための高精度人体再構成
- Authors: Decai Chen, Markus Worchel, Ingo Feldmann, Oliver Schreer, Peter
Eisert
- Abstract要約: 専門的なボリュームビデオ再構成の文脈において,深度マップ推定のための深度学習に基づく多視点ステレオネットワークを導入し,最適化する。
本手法は, 復元された人体に対して, 高レベルの幾何学的詳細を生成できることを示す。
- 参考スコア(独自算出の注目度): 0.9134661726886928
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we enhance a professional end-to-end volumetric video
production pipeline to achieve high-fidelity human body reconstruction using
only passive cameras. While current volumetric video approaches estimate depth
maps using traditional stereo matching techniques, we introduce and optimize
deep learning-based multi-view stereo networks for depth map estimation in the
context of professional volumetric video reconstruction. Furthermore, we
propose a novel depth map post-processing approach including filtering and
fusion, by taking into account photometric confidence, cross-view geometric
consistency, foreground masks as well as camera viewing frustums. We show that
our method can generate high levels of geometric detail for reconstructed human
bodies.
- Abstract(参考訳): 本研究では,能動カメラのみを用いた高忠実度人体再構成を実現するために,プロのエンドツーエンドビデオ制作パイプラインを強化する。
従来のステレオマッチング手法で深度マップを推定するが、プロのボリュームビデオ再構成の文脈で深度マップを推定するために、ディープラーニングに基づくマルチビューステレオネットワークを導入し、最適化する。
さらに,フォトメトリックの信頼性,クロスビューの幾何学的一貫性,前景のマスク,カメラの閲覧フラスタムを考慮し,フィルタリングと融合を含む新しい深度マップのポストプロセッシング手法を提案する。
本手法は,再構成人体の幾何学的詳細を高レベルに生成できることを示す。
関連論文リスト
- Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - NoPose-NeuS: Jointly Optimizing Camera Poses with Neural Implicit
Surfaces for Multi-view Reconstruction [0.0]
NoPose-NeuSは、NeuSを拡張して、幾何学とカラーネットワークでカメラポーズを協調的に最適化する、ニューラルネットワークによる暗黙の表面再構成手法である。
提案手法は, 比較的正確なカメラポーズを推定できるが, 表面改質品質は0.89で, チャムファー距離は0.89である。
論文 参考訳(メタデータ) (2023-12-23T12:18:22Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Consistent Video Depth Estimation [57.712779457632024]
モノクロ映像中の全画素に対して, 密度, 幾何的に整合した深度を再構成するアルゴリズムを提案する。
動画中の画素の幾何的制約を確立するために、従来の動きから再構成した構造を利用する。
我々のアルゴリズムは、手持ちの映像をある程度のダイナミックな動きで処理することができる。
論文 参考訳(メタデータ) (2020-04-30T17:59:26Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。