論文の概要: FusionTrack: End-to-End Multi-Object Tracking in Arbitrary Multi-View Environment
- arxiv url: http://arxiv.org/abs/2505.18727v1
- Date: Sat, 24 May 2025 14:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.621994
- Title: FusionTrack: End-to-End Multi-Object Tracking in Arbitrary Multi-View Environment
- Title(参考訳): FusionTrack: 任意マルチビュー環境におけるエンドツーエンドマルチオブジェクトトラッキング
- Authors: Xiaohe Li, Pengfei Li, Zide Fan, Ying Geng, Fangli Mou, Haohua Wu, Yunping Ge,
- Abstract要約: 本稿では、追跡と再識別を合理的に統合し、堅牢な軌跡関連のための多視点情報を活用するエンド・ツー・エンド・フレームワークを提案する。
MDMOTと他のベンチマークデータセットの実験は、FusionTrackがシングルビューとマルチビュートラッキングの両方で最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 7.5152380894919055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view multi-object tracking (MVMOT) has found widespread applications in intelligent transportation, surveillance systems, and urban management. However, existing studies rarely address genuinely free-viewpoint MVMOT systems, which could significantly enhance the flexibility and scalability of cooperative tracking systems. To bridge this gap, we first construct the Multi-Drone Multi-Object Tracking (MDMOT) dataset, captured by mobile drone swarms across diverse real-world scenarios, initially establishing the first benchmark for multi-object tracking in arbitrary multi-view environment. Building upon this foundation, we propose \textbf{FusionTrack}, an end-to-end framework that reasonably integrates tracking and re-identification to leverage multi-view information for robust trajectory association. Extensive experiments on our MDMOT and other benchmark datasets demonstrate that FusionTrack achieves state-of-the-art performance in both single-view and multi-view tracking.
- Abstract(参考訳): マルチビューマルチオブジェクトトラッキング(MVMOT)は、インテリジェントトランスポート、監視システム、都市管理に広く応用されている。
しかし、既存の研究では、真の自由視点MVMOTシステムにはほとんど対処せず、協調トラッキングシステムの柔軟性とスケーラビリティを大幅に向上させることができる。
このギャップを埋めるために、我々はまずMDMOT(Multi-Drone Multi-Object Tracking)データセットを構築しました。
この基盤を基盤として,ロバストな軌道アソシエーションのための多視点情報を活用するために,トラッキングと再識別を合理的に統合するエンドツーエンドフレームワークである‘textbf{FusionTrack} を提案する。
MDMOTや他のベンチマークデータセットに対する大規模な実験は、FusionTrackが単一ビューと複数ビュートラッキングの両方で最先端のパフォーマンスを達成することを示した。
関連論文リスト
- MCTR: Multi Camera Tracking Transformer [45.66952089591361]
Multi-Camera Tracking tRansformer (MCTR)は、マルチオブジェクト検出と複数のカメラ間のトラッキングに適した、エンドツーエンドのアプローチである。
MCTRは、Detector TRansformer (DETR)のようなエンドツーエンドの検出器を利用して、カメラビューごとに独立して検出および検出埋め込みを生成する。
このフレームワークは、追跡されたオブジェクトに関するグローバル情報を付加する一連のトラック埋め込みを維持し、ビュー固有の検出埋め込みからローカル情報を統合することで、各フレームでそれらを更新する。
論文 参考訳(メタデータ) (2024-08-23T17:37:03Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。