論文の概要: LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2111.11892v1
- Date: Tue, 23 Nov 2021 14:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 20:37:35.218188
- Title: LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking
- Title(参考訳): LMGP:マルチカメラマルチオブジェクトトラッキングのための幾何学的投影とリフテッドマルチカット
- Authors: Duy M. H. Nguyen, Roberto Henschel, Bodo Rosenhahn, Daniel Sonntag,
Paul Swoboda
- Abstract要約: マルチカメラ マルチオブジェクト追跡は、現実のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野において現在注目されている。
本稿では,空間時空間昇降型マルチカット定式化に基づく数学的にエレガントなマルチカメラ・マルチオブジェクト追跡手法を提案する。
- 参考スコア(独自算出の注目度): 42.87953709286856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Camera Multi-Object Tracking is currently drawing attention in the
computer vision field due to its superior performance in real-world
applications such as video surveillance with crowded scenes or in vast space.
In this work, we propose a mathematically elegant multi-camera multiple object
tracking approach based on a spatial-temporal lifted multicut formulation. Our
model utilizes state-of-the-art tracklets produced by single-camera trackers as
proposals. As these tracklets may contain ID-Switch errors, we refine them
through a novel pre-clustering obtained from 3D geometry projections. As a
result, we derive a better tracking graph without ID switches and more precise
affinity costs for the data association phase. Tracklets are then matched to
multi-camera trajectories by solving a global lifted multicut formulation that
incorporates short and long-range temporal interactions on tracklets located in
the same camera as well as inter-camera ones. Experimental results on the
WildTrack dataset yield near-perfect result, outperforming state-of-the-art
trackers on Campus while being on par on the PETS-09 dataset. We will make our
implementations available upon acceptance of the paper.
- Abstract(参考訳): マルチカメラ マルチオブジェクト追跡は現在、混み合ったシーンや広大な空間でのビデオ監視のような現実世界のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野で注目を集めている。
本研究では,空間-時空間リフト型マルチカット方式に基づく,数学的にエレガントなマルチカメラマルチオブジェクトトラッキング手法を提案する。
提案モデルは,シングルカメラトラッカが生成する最先端トラックレットを提案として利用する。
これらのトラックレットはID-Switchエラーを含む可能性があるため、3次元幾何投影から得られた新しい事前クラスタリングによってそれらを洗練する。
その結果、IDスイッチなしのトラッキンググラフと、データアソシエーションフェーズのより正確な親和性コストが得られた。
トラックレットは、同じカメラにあるトラックレットとカメラ間にあるトラックレットに短距離および長距離の時間的相互作用を組み込んだグローバルリフトされたマルチカット形式を解いて、マルチカメラ軌道にマッチする。
WildTrackデータセットの実験結果は、PETS-09データセットと同等でありながら、Campusの最先端トラッカーを上回るほぼ完全な結果をもたらす。
論文が受け入れられ次第、実装を利用可能にします。
関連論文リスト
- DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - A Unified Multi-view Multi-person Tracking Framework [5.143965432709092]
本研究では,足跡追跡とポーズトラッキングのギャップを埋めるための統合多視点多人数追跡フレームワークを提案する。
追加の修正なしに、このフレームワークは単眼の2Dバウンディングボックスと2Dポーズを入力として、複数の人のための堅牢な3Dトラジェクトリを生成することができる。
論文 参考訳(メタデータ) (2023-02-08T01:08:02Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - MMPTRACK: Large-scale Densely Annotated Multi-camera Multiple People
Tracking Benchmark [40.363608495563305]
自動アノテーションシステムの助けを借りて,5つの異なる環境において,大規模にラベル付けされたマルチカメラ追跡データセットを提供する。
3Dトラッキングの結果は、カメラパラメータを用いて各RGBカメラビューに投影され、2Dトラッキング結果が生成される。
このデータセットは、乱雑で混み合った環境で、より信頼性の高いマルチカメラ、マルチオブジェクトトラッキングシステムのベンチマークを提供する。
論文 参考訳(メタデータ) (2021-11-30T06:29:14Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - Real-time 3D Deep Multi-Camera Tracking [13.494550690138775]
本稿では,DMCT(Deep Multi-Camera Tracking)を提案する。
本システムは,リアルタイム性能を維持しつつ,最先端のトラッキング結果を実現する。
論文 参考訳(メタデータ) (2020-03-26T06:08:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。