論文の概要: LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2111.11892v1
- Date: Tue, 23 Nov 2021 14:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 20:37:35.218188
- Title: LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking
- Title(参考訳): LMGP:マルチカメラマルチオブジェクトトラッキングのための幾何学的投影とリフテッドマルチカット
- Authors: Duy M. H. Nguyen, Roberto Henschel, Bodo Rosenhahn, Daniel Sonntag,
Paul Swoboda
- Abstract要約: マルチカメラ マルチオブジェクト追跡は、現実のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野において現在注目されている。
本稿では,空間時空間昇降型マルチカット定式化に基づく数学的にエレガントなマルチカメラ・マルチオブジェクト追跡手法を提案する。
- 参考スコア(独自算出の注目度): 42.87953709286856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Camera Multi-Object Tracking is currently drawing attention in the
computer vision field due to its superior performance in real-world
applications such as video surveillance with crowded scenes or in vast space.
In this work, we propose a mathematically elegant multi-camera multiple object
tracking approach based on a spatial-temporal lifted multicut formulation. Our
model utilizes state-of-the-art tracklets produced by single-camera trackers as
proposals. As these tracklets may contain ID-Switch errors, we refine them
through a novel pre-clustering obtained from 3D geometry projections. As a
result, we derive a better tracking graph without ID switches and more precise
affinity costs for the data association phase. Tracklets are then matched to
multi-camera trajectories by solving a global lifted multicut formulation that
incorporates short and long-range temporal interactions on tracklets located in
the same camera as well as inter-camera ones. Experimental results on the
WildTrack dataset yield near-perfect result, outperforming state-of-the-art
trackers on Campus while being on par on the PETS-09 dataset. We will make our
implementations available upon acceptance of the paper.
- Abstract(参考訳): マルチカメラ マルチオブジェクト追跡は現在、混み合ったシーンや広大な空間でのビデオ監視のような現実世界のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野で注目を集めている。
本研究では,空間-時空間リフト型マルチカット方式に基づく,数学的にエレガントなマルチカメラマルチオブジェクトトラッキング手法を提案する。
提案モデルは,シングルカメラトラッカが生成する最先端トラックレットを提案として利用する。
これらのトラックレットはID-Switchエラーを含む可能性があるため、3次元幾何投影から得られた新しい事前クラスタリングによってそれらを洗練する。
その結果、IDスイッチなしのトラッキンググラフと、データアソシエーションフェーズのより正確な親和性コストが得られた。
トラックレットは、同じカメラにあるトラックレットとカメラ間にあるトラックレットに短距離および長距離の時間的相互作用を組み込んだグローバルリフトされたマルチカット形式を解いて、マルチカメラ軌道にマッチする。
WildTrackデータセットの実験結果は、PETS-09データセットと同等でありながら、Campusの最先端トラッカーを上回るほぼ完全な結果をもたらす。
論文が受け入れられ次第、実装を利用可能にします。
関連論文リスト
- RockTrack: A 3D Robust Multi-Camera-Ken Multi-Object Tracking Framework [28.359633046753228]
マルチカメラ検出器のための3次元MOT法であるRockTrackを提案する。
RockTrackには、信頼性の高い前処理モジュールが組み込まれており、信頼性の高い動きと画像の観察を抽出する。
RockTrackは、59.1%のAMOTAを持つnuScenesビジョンのみのトラッキングリーダーボードで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-18T07:08:08Z) - MCTR: Multi Camera Tracking Transformer [45.66952089591361]
Multi-Camera Tracking tRansformer (MCTR)は、マルチオブジェクト検出と複数のカメラ間のトラッキングに適した、エンドツーエンドのアプローチである。
MCTRは、Detector TRansformer (DETR)のようなエンドツーエンドの検出器を利用して、カメラビューごとに独立して検出および検出埋め込みを生成する。
このフレームワークは、追跡されたオブジェクトに関するグローバル情報を付加する一連のトラック埋め込みを維持し、ビュー固有の検出埋め込みからローカル情報を統合することで、各フレームでそれらを更新する。
論文 参考訳(メタデータ) (2024-08-23T17:37:03Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - A Unified Multi-view Multi-person Tracking Framework [5.143965432709092]
本研究では,足跡追跡とポーズトラッキングのギャップを埋めるための統合多視点多人数追跡フレームワークを提案する。
追加の修正なしに、このフレームワークは単眼の2Dバウンディングボックスと2Dポーズを入力として、複数の人のための堅牢な3Dトラジェクトリを生成することができる。
論文 参考訳(メタデータ) (2023-02-08T01:08:02Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - MMPTRACK: Large-scale Densely Annotated Multi-camera Multiple People
Tracking Benchmark [40.363608495563305]
自動アノテーションシステムの助けを借りて,5つの異なる環境において,大規模にラベル付けされたマルチカメラ追跡データセットを提供する。
3Dトラッキングの結果は、カメラパラメータを用いて各RGBカメラビューに投影され、2Dトラッキング結果が生成される。
このデータセットは、乱雑で混み合った環境で、より信頼性の高いマルチカメラ、マルチオブジェクトトラッキングシステムのベンチマークを提供する。
論文 参考訳(メタデータ) (2021-11-30T06:29:14Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Real-time 3D Deep Multi-Camera Tracking [13.494550690138775]
本稿では,DMCT(Deep Multi-Camera Tracking)を提案する。
本システムは,リアルタイム性能を維持しつつ,最先端のトラッキング結果を実現する。
論文 参考訳(メタデータ) (2020-03-26T06:08:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。