論文の概要: MMPTRACK: Large-scale Densely Annotated Multi-camera Multiple People
Tracking Benchmark
- arxiv url: http://arxiv.org/abs/2111.15157v1
- Date: Tue, 30 Nov 2021 06:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:08:45.705121
- Title: MMPTRACK: Large-scale Densely Annotated Multi-camera Multiple People
Tracking Benchmark
- Title(参考訳): MMPTRACK:マルチカメラのマルチカメラによるベンチマーク
- Authors: Xiaotian Han, Quanzeng You, Chunyu Wang, Zhizheng Zhang, Peng Chu,
Houdong Hu, Jiang Wang, Zicheng Liu
- Abstract要約: 自動アノテーションシステムの助けを借りて,5つの異なる環境において,大規模にラベル付けされたマルチカメラ追跡データセットを提供する。
3Dトラッキングの結果は、カメラパラメータを用いて各RGBカメラビューに投影され、2Dトラッキング結果が生成される。
このデータセットは、乱雑で混み合った環境で、より信頼性の高いマルチカメラ、マルチオブジェクトトラッキングシステムのベンチマークを提供する。
- 参考スコア(独自算出の注目度): 40.363608495563305
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-camera tracking systems are gaining popularity in applications that
demand high-quality tracking results, such as frictionless checkout because
monocular multi-object tracking (MOT) systems often fail in cluttered and
crowded environments due to occlusion. Multiple highly overlapped cameras can
significantly alleviate the problem by recovering partial 3D information.
However, the cost of creating a high-quality multi-camera tracking dataset with
diverse camera settings and backgrounds has limited the dataset scale in this
domain. In this paper, we provide a large-scale densely-labeled multi-camera
tracking dataset in five different environments with the help of an
auto-annotation system. The system uses overlapped and calibrated depth and RGB
cameras to build a high-performance 3D tracker that automatically generates the
3D tracking results. The 3D tracking results are projected to each RGB camera
view using camera parameters to create 2D tracking results. Then, we manually
check and correct the 3D tracking results to ensure the label quality, which is
much cheaper than fully manual annotation. We have conducted extensive
experiments using two real-time multi-camera trackers and a person
re-identification (ReID) model with different settings. This dataset provides a
more reliable benchmark of multi-camera, multi-object tracking systems in
cluttered and crowded environments. Also, our results demonstrate that adapting
the trackers and ReID models on this dataset significantly improves their
performance. Our dataset will be publicly released upon the acceptance of this
work.
- Abstract(参考訳): 単眼型マルチオブジェクトトラッキング(mot)システムは閉塞性により混み合った環境では失敗することが多いため、摩擦のないチェックアウトなど、高品質なトラッキング結果を必要とするアプリケーションでマルチカメラトラッキングシステムが人気を集めている。
複数の重なり合うカメラは、部分的な3D情報を復元することで問題を著しく軽減することができる。
しかし、さまざまなカメラ設定と背景を備えた高品質なマルチカメラ追跡データセットを作成するコストは、このドメインのデータセットスケールを制限している。
本稿では,オートアノテーションシステムを用いて,5つの異なる環境における大規模高密度マルチカメラ追跡データセットを提案する。
システムは重なり合った深度とRGBカメラを使用して、3D追跡結果を自動生成する高性能な3Dトラッカーを構築する。
3Dトラッキングの結果は、カメラパラメータを用いて各RGBカメラビューに投影され、2Dトラッキング結果が生成される。
そして、3Dトラッキングの結果を手作業でチェックして修正し、完全な手動アノテーションよりもずっと安いラベルの品質を保証します。
我々は2つのリアルタイムマルチカメラトラッカーと、異なる設定の人物識別(ReID)モデルを用いて広範な実験を行った。
このデータセットは、乱雑で混み合った環境でマルチカメラ、マルチオブジェクトトラッキングシステムのより信頼性の高いベンチマークを提供する。
また,このデータセットにトラッカとreidモデルを適用することで,性能が大幅に向上することを示す。
私たちのデータセットは、この作業が受け入れられ次第、公開されます。
関連論文リスト
- RockTrack: A 3D Robust Multi-Camera-Ken Multi-Object Tracking Framework [28.359633046753228]
マルチカメラ検出器のための3次元MOT法であるRockTrackを提案する。
RockTrackには、信頼性の高い前処理モジュールが組み込まれており、信頼性の高い動きと画像の観察を抽出する。
RockTrackは、59.1%のAMOTAを持つnuScenesビジョンのみのトラッキングリーダーボードで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-18T07:08:08Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - A Unified Multi-view Multi-person Tracking Framework [5.143965432709092]
本研究では,足跡追跡とポーズトラッキングのギャップを埋めるための統合多視点多人数追跡フレームワークを提案する。
追加の修正なしに、このフレームワークは単眼の2Dバウンディングボックスと2Dポーズを入力として、複数の人のための堅牢な3Dトラジェクトリを生成することができる。
論文 参考訳(メタデータ) (2023-02-08T01:08:02Z) - MUTR3D: A Multi-camera Tracking Framework via 3D-to-2D Queries [18.70932813595532]
複数のカメラからの3Dトラッキングは、ビジョンベースの自動運転システムにおいて重要な要素である。
我々はMUTR3Dと呼ばれるエンドツーエンドのtextbfMUlti-camera textbfTRackingフレームワークを提案する。
MUTR3Dは、オブジェクトの空間的および外観的類似性に明示的に依存していない。
nuScenesデータセット上で5.3 AMOTAによる最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-05-02T01:45:41Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking [42.87953709286856]
マルチカメラ マルチオブジェクト追跡は、現実のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野において現在注目されている。
本稿では,空間時空間昇降型マルチカット定式化に基づく数学的にエレガントなマルチカメラ・マルチオブジェクト追跡手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T14:09:47Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Real-time 3D Deep Multi-Camera Tracking [13.494550690138775]
本稿では,DMCT(Deep Multi-Camera Tracking)を提案する。
本システムは,リアルタイム性能を維持しつつ,最先端のトラッキング結果を実現する。
論文 参考訳(メタデータ) (2020-03-26T06:08:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。