論文の概要: EarlyBird: Early-Fusion for Multi-View Tracking in the Bird's Eye View
- arxiv url: http://arxiv.org/abs/2310.13350v1
- Date: Fri, 20 Oct 2023 08:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 23:44:03.916907
- Title: EarlyBird: Early-Fusion for Multi-View Tracking in the Bird's Eye View
- Title(参考訳): EarlyBird: 鳥の視界におけるマルチビュートラッキングの早期融合
- Authors: Torben Teepe, Philipp Wolters, Johannes Gilg, Fabian Herzog, Gerhard
Rigoll
- Abstract要約: 本研究では,バードアイビューの早期融合により,検出と追跡の両面で高い精度が得られることを示す。
EarlyBirdは最先端の手法より優れており、現在のWildtrackの状態を+4.6 MOTAと+5.6 IDF1で改善している。
- 参考スコア(独自算出の注目度): 6.093524345727119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view aggregation promises to overcome the occlusion and missed
detection challenge in multi-object detection and tracking. Recent approaches
in multi-view detection and 3D object detection made a huge performance leap by
projecting all views to the ground plane and performing the detection in the
Bird's Eye View (BEV). In this paper, we investigate if tracking in the BEV can
also bring the next performance breakthrough in Multi-Target Multi-Camera
(MTMC) tracking. Most current approaches in multi-view tracking perform the
detection and tracking task in each view and use graph-based approaches to
perform the association of the pedestrian across each view. This spatial
association is already solved by detecting each pedestrian once in the BEV,
leaving only the problem of temporal association. For the temporal association,
we show how to learn strong Re-Identification (re-ID) features for each
detection. The results show that early-fusion in the BEV achieves high accuracy
for both detection and tracking. EarlyBird outperforms the state-of-the-art
methods and improves the current state-of-the-art on Wildtrack by +4.6 MOTA and
+5.6 IDF1.
- Abstract(参考訳): マルチビューアグリゲーションは、マルチオブジェクトの検出とトラッキングにおいて、閉塞と検出の欠如を克服することを約束する。
近年の多視点検出と3次元物体検出のアプローチは、すべてのビューを地上面に投影し、バードアイビュー(BEV)で検出を行うことで、大きな性能向上を実現した。
本稿では,BEVにおけるトラッキングがマルチターゲットマルチカメラ(MTMC)トラッキングにおける次のパフォーマンスブレークスルーをもたらすかどうかを検討する。
マルチビュートラッキングにおける現在のほとんどのアプローチは、各ビューにおける検出および追跡タスクを実行し、グラフベースのアプローチを使用して、各ビューにおける歩行者の関連付けを行う。
この空間的関連は、BEVで1度だけ歩行者を検出することで既に解決されており、時間的関連の問題のみが残る。
時間的関連性については,検出毎に強い再同定(re-ID)特徴を学習する方法を示す。
その結果, BEVの早期融合は, 検出と追跡の両方において高い精度が得られることがわかった。
EarlyBirdは最先端の手法より優れており、現在のWildtrackの状態を+4.6 MOTAと+5.6 IDF1で改善している。
関連論文リスト
- Lost and Found: Overcoming Detector Failures in Online Multi-Object Tracking [15.533652456081374]
マルチオブジェクト追跡(MOT)は、時間とともに複数のオブジェクトのアイデンティティと位置を正確に推定する。
現代の検出器は、あるフレーム内のいくつかのオブジェクトを見逃すことがあるため、トラッカーは早めに追跡をやめる。
オンラインTbDシステムと互換性のある汎用フレームワークであるBUSCAを提案する。
論文 参考訳(メタデータ) (2024-07-14T10:45:12Z) - ADA-Track: End-to-End Multi-Camera 3D Multi-Object Tracking with Alternating Detection and Association [15.161640917854363]
多視点カメラによる3D MOTのための新しいエンドツーエンドフレームワークであるADA-Trackを紹介する。
エッジ拡張型クロスアテンションに基づく学習可能なデータアソシエーションモジュールを提案する。
我々は、この関連モジュールをDTRベースの3D検出器のデコーダ層に統合する。
論文 参考訳(メタデータ) (2024-05-14T19:02:33Z) - Lifting Multi-View Detection and Tracking to the Bird's Eye View [5.679775668038154]
マルチビュー検出と3Dオブジェクト認識の最近の進歩により、性能が大幅に向上した。
パラメータフリーとパラメータ化の両方の現代的なリフト法とマルチビューアグリゲーションを比較した。
堅牢な検出を学習するために,複数のステップの特徴を集約するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-19T09:33:07Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Multi-view Tracking Using Weakly Supervised Human Motion Prediction [60.972708589814125]
さらに効果的なアプローチは、時間とともに人々の動きを予測し、それらから個々のフレームにおける人々の存在を推定することである、と我々は主張する。
これにより、時間とともに、また1つの時間フレームのビューにわたって一貫性を強制できる。
PETS2009およびWILDTRACKデータセットに対する我々のアプローチを検証するとともに、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T17:58:23Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - BEVerse: Unified Perception and Prediction in Birds-Eye-View for
Vision-Centric Autonomous Driving [92.05963633802979]
マルチカメラシステムに基づく3次元認識と予測のための統合フレームワークであるBEVerseを提案する。
マルチタスクBEVerseは3次元オブジェクト検出,セマンティックマップ構築,動き予測において単一タスク法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-19T17:55:35Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。