論文の概要: POSEFusion: Pose-guided Selective Fusion for Single-view Human
Volumetric Capture
- arxiv url: http://arxiv.org/abs/2103.15331v1
- Date: Mon, 29 Mar 2021 04:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:57:49.498757
- Title: POSEFusion: Pose-guided Selective Fusion for Single-view Human
Volumetric Capture
- Title(参考訳): POSEFusion:pose-guided Selective Fusion for Single-view Human Volumetric Capture
- Authors: Zhe Li, Tao Yu, Zerong Zheng, Kaiwen Guo, Yebin Liu
- Abstract要約: 単一視点の人間捕獲法としてポーズ誘導型選択的核融合(posefusion)を提案する。
本稿では,ポーズ誘導選択と頑健な表面融合を含む新しい再構成フレームワークを提案する。
単一のRGBDカメラから可視領域と可視領域の両方で高精細かつダイナミックなキャプチャが可能です。
- 参考スコア(独自算出の注目度): 40.51499225992618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose POse-guided SElective Fusion (POSEFusion), a single-view human
volumetric capture method that leverages tracking-based methods and
tracking-free inference to achieve high-fidelity and dynamic 3D reconstruction.
By contributing a novel reconstruction framework which contains pose-guided
keyframe selection and robust implicit surface fusion, our method fully
utilizes the advantages of both tracking-based methods and tracking-free
inference methods, and finally enables the high-fidelity reconstruction of
dynamic surface details even in the invisible regions. We formulate the
keyframe selection as a dynamic programming problem to guarantee the temporal
continuity of the reconstructed sequence. Moreover, the novel robust implicit
surface fusion involves an adaptive blending weight to preserve high-fidelity
surface details and an automatic collision handling method to deal with the
potential self-collisions. Overall, our method enables high-fidelity and
dynamic capture in both visible and invisible regions from a single RGBD
camera, and the results and experiments show that our method outperforms
state-of-the-art methods.
- Abstract(参考訳): 本研究では,高忠実かつダイナミックな3次元再構成を実現するために,トラッキングベース手法とトラッキングフリー推論を利用した単一ビュー人間のボリュームキャプチャ手法POSEFusionを提案する。
提案手法は,姿勢誘導型キーフレーム選択と頑健な暗黙的表面融合を含む新しい再構成フレームワークを提供することにより,トラッキングベース法とトラッキングフリー推論法の両方の利点を十分に活用し,目に見えない領域においても動的表面詳細の高精度な再構成を可能にする。
キーフレーム選択を動的計画問題として定式化し,再構成シーケンスの時間的連続性を保証する。
さらに,新しいロバストな暗黙的表面融合では,高忠実度な表面詳細を保存するための適応的混合重みと,潜在的な自己衝突に対処する自動衝突ハンドリング法がある。
本手法は,1枚のRGBDカメラから高忠実度・ダイナミックキャプチャが可能であり,その結果と実験により,本手法が最先端の手法より優れていることが示された。
関連論文リスト
- D-SCo: Dual-Stream Conditional Diffusion for Monocular Hand-Held Object Reconstruction [74.49121940466675]
モノクローナルハンドヘルドオブジェクト再構成のためのCentroid-fixed dual-stream conditionalfusionを導入する。
まず、対象のセントロイドがずれることを避けるために、手動制約付きセントロイド固定パラダイムを用いる。
第2に、意味的および幾何学的に手動物体の相互作用をモデル化するための二重ストリームデノイザを導入する。
論文 参考訳(メタデータ) (2023-11-23T20:14:50Z) - C2F2NeUS: Cascade Cost Frustum Fusion for High Fidelity and
Generalizable Neural Surface Reconstruction [12.621233209149953]
本稿では,多視点ステレオとニューラルサイン付き距離関数表現を組み合わせた新しい統合手法を提案する。
本手法は,ロバストな表面を再構成し,既存の最先端の手法より優れる。
論文 参考訳(メタデータ) (2023-06-16T17:56:16Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Multi-Frame Self-Supervised Depth Estimation with Multi-Scale Feature
Fusion in Dynamic Scenes [25.712707161201802]
マルチフレーム手法は単一フレームアプローチによる単眼深度推定を改善する。
最近の手法では、特徴マッチングと動的シーンのための複雑なアーキテクチャを提案する傾向がある。
単純な学習フレームワークと設計された機能拡張が、優れたパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-26T05:26:30Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - RobustFusion: Robust Volumetric Performance Reconstruction under
Human-object Interactions from Monocular RGBD Stream [27.600873320989276]
現実のシナリオでは、さまざまなオブジェクトと複雑な相互作用を持つ人間のパフォーマンスの高品質の4D再構築が不可欠です。
近年の進歩は、信頼性の高い性能回復には至っていない。
人間と物体のインタラクションシナリオのための堅牢なボリュームパフォーマンス再構築システムであるRobustFusionを提案する。
論文 参考訳(メタデータ) (2021-04-30T08:41:45Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。