論文の概要: A Multi-Drone Multi-View Dataset and Deep Learning Framework for Pedestrian Detection and Tracking
- arxiv url: http://arxiv.org/abs/2511.08615v1
- Date: Thu, 13 Nov 2025 01:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.144723
- Title: A Multi-Drone Multi-View Dataset and Deep Learning Framework for Pedestrian Detection and Tracking
- Title(参考訳): 歩行者検出・追跡のための多次元マルチビューデータセットとディープラーニングフレームワーク
- Authors: Kosta Dakic, Kanchana Thilakarathna, Rodrigo N. Calheiros, Teng Joon Lim,
- Abstract要約: 本稿では,連続的な位置変化を伴う8台のドローンの同期映像を特徴とするMATRIXについて紹介する。
我々のフレームワークは、リアルタイムカメラキャリブレーションによる動的ドローンによる監視の難しさに対処する。
提案手法は,検出精度と追跡精度を$sim$90%,トラジェクトリの$sim$80%で頑健な性能を維持する。
- 参考スコア(独自算出の注目度): 4.94365026098608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-drone surveillance systems offer enhanced coverage and robustness for pedestrian tracking, yet existing approaches struggle with dynamic camera positions and complex occlusions. This paper introduces MATRIX (Multi-Aerial TRacking In compleX environments), a comprehensive dataset featuring synchronized footage from eight drones with continuously changing positions, and a novel deep learning framework for multi-view detection and tracking. Unlike existing datasets that rely on static cameras or limited drone coverage, MATRIX provides a challenging scenario with 40 pedestrians and a significant architectural obstruction in an urban environment. Our framework addresses the unique challenges of dynamic drone-based surveillance through real-time camera calibration, feature-based image registration, and multi-view feature fusion in bird's-eye-view (BEV) representation. Experimental results demonstrate that while static camera methods maintain over 90\% detection and tracking precision and accuracy metrics in a simplified MATRIX environment without an obstruction, 10 pedestrians and a much smaller observational area, their performance significantly degrades in the complex environment. Our proposed approach maintains robust performance with $\sim$90\% detection and tracking accuracy, as well as successfully tracks $\sim$80\% of trajectories under challenging conditions. Transfer learning experiments reveal strong generalization capabilities, with the pretrained model achieving much higher detection and tracking accuracy performance compared to training the model from scratch. Additionally, systematic camera dropout experiments reveal graceful performance degradation, demonstrating practical robustness for real-world deployments where camera failures may occur. The MATRIX dataset and framework provide essential benchmarks for advancing dynamic multi-view surveillance systems.
- Abstract(参考訳): マルチドローン監視システムは、歩行者追跡のカバレッジとロバスト性の向上を提供するが、既存のアプローチではダイナミックカメラの位置と複雑な閉塞に悩まされている。
本稿では,MATRIX (Multi-Aerial TRacking IncompleX Environment) について紹介する。
静的カメラや限定的なドローンカバーに依存する既存のデータセットとは異なり、MATRIXは40人の歩行者と都市環境における重要なアーキテクチャ上の障害を伴う、困難なシナリオを提供する。
我々のフレームワークは、リアルタイムカメラキャリブレーション、特徴ベースの画像登録、鳥眼ビュー(BEV)表現における多視点機能融合による動的ドローンによる監視の難しさに対処する。
スタティックカメラ法は, 簡易MATRIX環境において, 障害物がなく, 歩行者10名, 観測面積が比較的小さい場合に, 検出精度と精度を90%以上維持するが, 複雑な環境下では性能が著しく低下することが実験的に証明された。
提案手法は, トラジェクトリの$\sim$90\%検出と追跡精度を向上し, トラジェクトリの$\sim$80\%を困難な条件下で追跡する。
転送学習実験では,事前学習したモデルが,スクラッチからモデルを訓練するよりもはるかに高い検出精度と追跡精度を達成することにより,強力な一般化能力を示す。
さらに、システマティックカメラのドロップアウト実験は、優れたパフォーマンス劣化を示し、カメラの故障が発生する可能性がある現実のデプロイメントに対して実用的な堅牢性を示す。
MATRIXデータセットとフレームワークは、動的マルチビュー監視システムの進化に不可欠なベンチマークを提供する。
関連論文リスト
- CVD-SfM: A Cross-View Deep Front-end Structure-from-Motion System for Sparse Localization in Multi-Altitude Scenes [0.7623023317942882]
本稿では,様々な高度にまたがるロバストかつ正確な位置決めの課題に対処する,新しい多高度カメラポーズ推定システムを提案する。
このシステムは, クロスビュートランス, 深い特徴, 動きからの構造を統合して, 多様な環境条件や視点変化を効果的に処理する。
論文 参考訳(メタデータ) (2025-08-03T22:11:48Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Attention-Aware Multi-View Pedestrian Tracking [21.393389135740712]
最近の多視点歩行者検出モデルは、早期統合戦略の可能性を強調している。
この戦略は、検出と追跡の両方のパフォーマンスを改善することが示されている。
本稿では,多視点歩行者追跡シナリオに注意機構を組み込んだ新しいモデルを提案する。
論文 参考訳(メタデータ) (2025-04-03T21:53:08Z) - Open-World Drone Active Tracking with Goal-Centered Rewards [62.21394499788672]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATは,世界初となるエア・ツー・グラウンド・トラッキング・ベンチマークである。
また,複雑なシナリオにおけるドローン追跡目標の性能向上を目的としたGC-VATを提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - MCTR: Multi Camera Tracking Transformer [45.66952089591361]
Multi-Camera Tracking tRansformer (MCTR)は、マルチオブジェクト検出と複数のカメラ間のトラッキングに適した、エンドツーエンドのアプローチである。
MCTRは、Detector TRansformer (DETR)のようなエンドツーエンドの検出器を利用して、カメラビューごとに独立して検出および検出埋め込みを生成する。
このフレームワークは、追跡されたオブジェクトに関するグローバル情報を付加する一連のトラック埋め込みを維持し、ビュー固有の検出埋め込みからローカル情報を統合することで、各フレームでそれらを更新する。
論文 参考訳(メタデータ) (2024-08-23T17:37:03Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。