論文の概要: VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild
- arxiv url: http://arxiv.org/abs/2108.02452v1
- Date: Thu, 5 Aug 2021 08:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:38:55.838670
- Title: VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild
- Title(参考訳): voxeltrack:野生における多人数3次元ポーズ推定と追跡
- Authors: Yifu Zhang and Chunyu Wang and Xinggang Wang and Wenyu Liu and Wenjun
Zeng
- Abstract要約: 本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 98.69191256693703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present VoxelTrack for multi-person 3D pose estimation and tracking from a
few cameras which are separated by wide baselines. It employs a multi-branch
network to jointly estimate 3D poses and re-identification (Re-ID) features for
all people in the environment. In contrast to previous efforts which require to
establish cross-view correspondence based on noisy 2D pose estimates, it
directly estimates and tracks 3D poses from a 3D voxel-based representation
constructed from multi-view images. We first discretize the 3D space by regular
voxels and compute a feature vector for each voxel by averaging the body joint
heatmaps that are inversely projected from all views. We estimate 3D poses from
the voxel representation by predicting whether each voxel contains a particular
body joint. Similarly, a Re-ID feature is computed for each voxel which is used
to track the estimated 3D poses over time. The main advantage of the approach
is that it avoids making any hard decisions based on individual images. The
approach can robustly estimate and track 3D poses even when people are severely
occluded in some cameras. It outperforms the state-of-the-art methods by a
large margin on three public datasets including Shelf, Campus and CMU Panoptic.
- Abstract(参考訳): 本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、3dポーズと再識別(re-id)機能を共同推定している。
ノイズの多い2次元ポーズ推定に基づくクロスビュー対応を確立する以前の取り組みとは対照的に、マルチビュー画像から構築した3dvoxelベースの表現から直接3dポーズを推定し、追跡する。
まず、3次元空間を正規なボクセルで識別し、全てのビューから逆投影された身体の関節熱マップ平均化により各ボクセルの特徴ベクトルを計算する。
各ボクセルが特定の身体関節を含むかどうかを予測することにより、ボクセル表現から3dポーズを推定する。
同様に、推定された3Dポーズを時間とともに追跡するために使用される各ボクセルに対してRe-ID機能が計算される。
このアプローチの主な利点は、個々の画像に基づいて難しい決定を行なわないことだ。
このアプローチは、一部のカメラに閉じ込められたときでも、しっかりと3Dのポーズを推定し、追跡することができる。
これは、shelf、campus、cmu panopticの3つのパブリックデータセットにおいて、最先端の手法を大きく上回っている。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Self-learning Canonical Space for Multi-view 3D Human Pose Estimation [57.969696744428475]
マルチビュー3次元人間のポーズ推定は、自然に単一ビューのポーズ推定よりも優れている。
これらの情報の正確な注釈を得るのは難しい。
完全自己管理型多視点アグリゲーションネットワーク(CMANet)を提案する。
CMANetは、大規模で質的な分析において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-19T04:54:59Z) - Real-Time Multi-View 3D Human Pose Estimation using Semantic Feedback to
Smart Edge Sensors [28.502280038100167]
各カメラビューに対する2次元関節検出は、専用の埋め込み推論プロセッサ上で局所的に行われる。
3次元ポーズは、三角法と体モデルに基づいて、中央のバックエンドにある2次元関節から回収される。
パイプライン全体がリアルタイム操作が可能なのです。
論文 参考訳(メタデータ) (2021-06-28T14:00:00Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - PandaNet : Anchor-Based Single-Shot Multi-Person 3D Pose Estimation [35.791868530073955]
PandaNetは、新しいシングルショット、アンカーベース、マルチパーソナライズされた3Dポーズ推定手法である。
提案モデルは境界ボックス検出を行い,検出者毎に2次元および3次元ポーズ回帰を1回のフォワードパスに設定する。
ネットワークが各バウンディングボックスの完全な3Dポーズを予測するため、関節を再グループ化するための後処理は不要である。
論文 参考訳(メタデータ) (2021-01-07T10:32:17Z) - SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation [46.85865451812981]
本稿では,まず,この2.5D表現に基づいて,まず2.5D表現の集合を回帰し,さらに深部認識部分関連アルゴリズムを用いて3D絶対ポーズを再構成するシステムを提案する。
このような単発ボトムアップ方式により、システムは人物間の深度関係をよりよく学習し、推論し、3Dと2Dの両方のポーズ推定を改善することができる。
論文 参考訳(メタデータ) (2020-08-26T09:56:07Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z) - Fusing Wearable IMUs with Multi-View Images for Human Pose Estimation: A
Geometric Approach [76.10879433430466]
多視点画像と人手足に装着したIMUから3次元人間のポーズを推定する。
まず2つの信号から2Dのポーズを検出し、3D空間に持ち上げる。
単純な2段階のアプローチは、公開データセット上の大きなマージンによる最先端のエラーを低減する。
論文 参考訳(メタデータ) (2020-03-25T00:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。