論文の概要: Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo
- arxiv url: http://arxiv.org/abs/2104.02273v1
- Date: Tue, 6 Apr 2021 03:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:08:20.194884
- Title: Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo
- Title(参考訳): 平面スウィープステレオを用いた多視点マルチパーソン3次元姿勢推定
- Authors: Jiahao Lin, Gim Hee Lee
- Abstract要約: 既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
- 参考スコア(独自算出の注目度): 71.59494156155309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for multi-view multi-person 3D pose estimation explicitly
establish cross-view correspondences to group 2D pose detections from multiple
camera views and solve for the 3D pose estimation for each person. Establishing
cross-view correspondences is challenging in multi-person scenes, and incorrect
correspondences will lead to sub-optimal performance for the multi-stage
pipeline. In this work, we present our multi-view 3D pose estimation approach
based on plane sweep stereo to jointly address the cross-view fusion and 3D
pose reconstruction in a single shot. Specifically, we propose to perform depth
regression for each joint of each 2D pose in a target camera view. Cross-view
consistency constraints are implicitly enforced by multiple reference camera
views via the plane sweep algorithm to facilitate accurate depth regression. We
adopt a coarse-to-fine scheme to first regress the person-level depth followed
by a per-person joint-level relative depth estimation. 3D poses are obtained
from a simple back-projection given the estimated depths. We evaluate our
approach on benchmark datasets where it outperforms previous state-of-the-arts
while being remarkably efficient. Our code is available at
https://github.com/jiahaoLjh/PlaneSweepPose.
- Abstract(参考訳): 多視点多人数ポーズ推定のための既存のアプローチは、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立し、各人の3Dポーズ推定を解決する。
多視点対応を確立することは多人数場面では困難であり、不正確な対応は多段階パイプラインの最適性能に繋がる。
本研究では,平面スイープステレオを用いた多視点3Dポーズ推定手法を提案する。
具体的には,対象カメラビューにおける各2次元ポーズの接合部の深さ回帰を行う。
クロスビュー一貫性の制約は、平面スイープアルゴリズムを介して複数の参照カメラビューによって暗黙的に強制される。
本手法は,まず人ごとの相対的深度を推定し,まず人ごとの相対的深度を推定する。
3dポーズは、推定深度から単純なバックプロジェクションから得られる。
提案手法は,従来の最先端技術よりも効率的かつ優れたベンチマークデータセットである。
私たちのコードはhttps://github.com/jiahaoLjh/PlaneSweepPose.comで利用可能です。
関連論文リスト
- Self-learning Canonical Space for Multi-view 3D Human Pose Estimation [57.969696744428475]
マルチビュー3次元人間のポーズ推定は、自然に単一ビューのポーズ推定よりも優れている。
これらの情報の正確な注釈を得るのは難しい。
完全自己管理型多視点アグリゲーションネットワーク(CMANet)を提案する。
CMANetは、大規模で質的な分析において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-19T04:54:59Z) - Multi-Person 3D Pose Estimation from Multi-View Uncalibrated Depth
Cameras [36.59439020480503]
我々は、限られた数の非校正深度カメラから、多視点多人数3D人物ポーズ推定の課題に取り組む。
本稿では,3次元ポーズ推定のためのRGBDビデオストリームを提供する,疎遠で校正されていない深度カメラを活用することを提案する。
論文 参考訳(メタデータ) (2024-01-28T10:06:17Z) - Geometry-Biased Transformer for Robust Multi-View 3D Human Pose
Reconstruction [3.069335774032178]
マルチビュー2次元ポーズシーケンスから3次元ポーズを推定するエンコーダ・デコーダ変換アーキテクチャを提案する。
我々は、Human3.6M、CMU Panoptic、Occlusion-Personsの3つのベンチマーク公開データセットで実験を行った。
論文 参考訳(メタデータ) (2023-12-28T16:30:05Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - Direct Multi-view Multi-person 3D Pose Estimation [138.48139701871213]
マルチビュー画像からマルチパーソン3Dポーズを推定するためのMulti-view Pose Transformer(MvP)を提案する。
MvPは、中間タスクに頼ることなく、複数の人物の3Dポーズを直接クリーンで効率的な方法で回帰する。
我々は,MvPモデルがより効率的でありながら,いくつかのベンチマークにおいて最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-07T13:09:20Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation [46.85865451812981]
本稿では,まず,この2.5D表現に基づいて,まず2.5D表現の集合を回帰し,さらに深部認識部分関連アルゴリズムを用いて3D絶対ポーズを再構成するシステムを提案する。
このような単発ボトムアップ方式により、システムは人物間の深度関係をよりよく学習し、推論し、3Dと2Dの両方のポーズ推定を改善することができる。
論文 参考訳(メタデータ) (2020-08-26T09:56:07Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。