論文の概要: A Unified Multi-view Multi-person Tracking Framework
- arxiv url: http://arxiv.org/abs/2302.03820v1
- Date: Wed, 8 Feb 2023 01:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 17:42:27.342450
- Title: A Unified Multi-view Multi-person Tracking Framework
- Title(参考訳): 統合多視点多人数追跡フレームワーク
- Authors: Fan Yang, Shigeyuki Odashima, Sosuke Yamao, Hiroaki Fujimoto, Shoichi
Masui, and Shan Jiang
- Abstract要約: 本研究では,足跡追跡とポーズトラッキングのギャップを埋めるための統合多視点多人数追跡フレームワークを提案する。
追加の修正なしに、このフレームワークは単眼の2Dバウンディングボックスと2Dポーズを入力として、複数の人のための堅牢な3Dトラジェクトリを生成することができる。
- 参考スコア(独自算出の注目度): 5.143965432709092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although there is a significant development in 3D Multi-view Multi-person
Tracking (3D MM-Tracking), current 3D MM-Tracking frameworks are designed
separately for footprint and pose tracking. Specifically, frameworks designed
for footprint tracking cannot be utilized in 3D pose tracking, because they
directly obtain 3D positions on the ground plane with a homography projection,
which is inapplicable to 3D poses above the ground. In contrast, frameworks
designed for pose tracking generally isolate multi-view and multi-frame
associations and may not be robust to footprint tracking, since footprint
tracking utilizes fewer key points than pose tracking, which weakens multi-view
association cues in a single frame. This study presents a Unified Multi-view
Multi-person Tracking framework to bridge the gap between footprint tracking
and pose tracking. Without additional modifications, the framework can adopt
monocular 2D bounding boxes and 2D poses as the input to produce robust 3D
trajectories for multiple persons. Importantly, multi-frame and multi-view
information are jointly employed to improve the performance of association and
triangulation. The effectiveness of our framework is verified by accomplishing
state-of-the-art performance on the Campus and Shelf datasets for 3D pose
tracking, and by comparable results on the WILDTRACK and MMPTRACK datasets for
3D footprint tracking.
- Abstract(参考訳): 3dマルチビューマルチパーソントラッキング(3dmmトラッキング)には大きな進展があるが、現在の3dmmトラッキングフレームワークは足跡とポーズ追跡のために別々に設計されている。
特に, 3次元ポーズトラッキングでは, 平面上の3次元位置を直接得ることができず, 地上の3次元ポーズには適用できないため, 足跡追跡用に設計されたフレームワークは利用できない。
対照的に、ポーズトラッキング用に設計されたフレームワークは、一般的にマルチビューとマルチフレームのアソシエーションを分離し、フットプリントトラッキングには堅牢ではない可能性がある。
本研究では,足跡追跡とポーズトラッキングのギャップを埋めるための統合多視点多人数追跡フレームワークを提案する。
追加の修正なしに、このフレームワークは単眼の2Dバウンディングボックスと2Dポーズを入力として、複数の人のための堅牢な3D軌道を生成することができる。
重要なのは、関連や三角測量の性能を向上させるために、マルチフレーム情報とマルチビュー情報を共同で利用することである。
このフレームワークの有効性は、3DポーズトラッキングのためのCampusとShelfデータセットの最先端性能と、3DフットプリントトラッキングのためのWILDTRACKとMMPTRACKデータセットの同等の結果によって検証される。
関連論文リスト
- TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - BiTrack: Bidirectional Offline 3D Multi-Object Tracking Using Camera-LiDAR Data [11.17376076195671]
BiTrackは2D-3D検出融合、初期軌道生成、双方向軌道再最適化のモジュールを含む3D OMOTフレームワークである。
KITTIデータセットを用いた実験結果から,BiTrackは3次元OMOTタスクの最先端性能を精度と効率で達成できることが示された。
論文 参考訳(メタデータ) (2024-06-26T15:09:54Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - DirectTracker: 3D Multi-Object Tracking Using Direct Image Alignment and
Photometric Bundle Adjustment [41.27664827586102]
直接法は視覚計測とSLAMの応用において優れた性能を示した。
本研究では,3次元物体検出のための短期追跡とスライディングウインドウ光度束調整のための直像アライメントを効果的に組み合わせたフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T17:40:22Z) - MMPTRACK: Large-scale Densely Annotated Multi-camera Multiple People
Tracking Benchmark [40.363608495563305]
自動アノテーションシステムの助けを借りて,5つの異なる環境において,大規模にラベル付けされたマルチカメラ追跡データセットを提供する。
3Dトラッキングの結果は、カメラパラメータを用いて各RGBカメラビューに投影され、2Dトラッキング結果が生成される。
このデータセットは、乱雑で混み合った環境で、より信頼性の高いマルチカメラ、マルチオブジェクトトラッキングシステムのベンチマークを提供する。
論文 参考訳(メタデータ) (2021-11-30T06:29:14Z) - LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking [42.87953709286856]
マルチカメラ マルチオブジェクト追跡は、現実のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野において現在注目されている。
本稿では,空間時空間昇降型マルチカット定式化に基づく数学的にエレガントなマルチカメラ・マルチオブジェクト追跡手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T14:09:47Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。