論文の概要: A Robust Deep Networks based Multi-Object MultiCamera Tracking System for City Scale Traffic
- arxiv url: http://arxiv.org/abs/2505.00534v1
- Date: Thu, 01 May 2025 14:00:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.319083
- Title: A Robust Deep Networks based Multi-Object MultiCamera Tracking System for City Scale Traffic
- Title(参考訳): 都市交通のためのロバストディープネットワークを用いた多目的マルチカメラ追跡システム
- Authors: Muhammad Imran Zaman, Usama Ijaz Bajwa, Gulshan Saleem, Rana Hammad Raza,
- Abstract要約: 提案するフレームワークは、46のカメラフィードからなる第5回AI City Challengeデータセット(Track 3)で評価される。
IDF1スコアは0.8289で、精度とリコールスコアはそれぞれ0.9026と0.8527である。
- 参考スコア(独自算出の注目度): 2.024925013349319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision sensors are becoming more important in Intelligent Transportation Systems (ITS) for traffic monitoring, management, and optimization as the number of network cameras continues to rise. However, manual object tracking and matching across multiple non-overlapping cameras pose significant challenges in city-scale urban traffic scenarios. These challenges include handling diverse vehicle attributes, occlusions, illumination variations, shadows, and varying video resolutions. To address these issues, we propose an efficient and cost-effective deep learning-based framework for Multi-Object Multi-Camera Tracking (MO-MCT). The proposed framework utilizes Mask R-CNN for object detection and employs Non-Maximum Suppression (NMS) to select target objects from overlapping detections. Transfer learning is employed for re-identification, enabling the association and generation of vehicle tracklets across multiple cameras. Moreover, we leverage appropriate loss functions and distance measures to handle occlusion, illumination, and shadow challenges. The final solution identification module performs feature extraction using ResNet-152 coupled with Deep SORT based vehicle tracking. The proposed framework is evaluated on the 5th AI City Challenge dataset (Track 3), comprising 46 camera feeds. Among these 46 camera streams, 40 are used for model training and validation, while the remaining six are utilized for model testing. The proposed framework achieves competitive performance with an IDF1 score of 0.8289, and precision and recall scores of 0.9026 and 0.8527 respectively, demonstrating its effectiveness in robust and accurate vehicle tracking.
- Abstract(参考訳): 交通監視、管理、最適化のためのインテリジェントトランスポーテーションシステム(ITS)では、ネットワークカメラの数が増え続けているため、視覚センサーがより重要になっている。
しかし、複数の重複しないカメラにまたがる手動物体追跡とマッチングは、都市規模の都市交通シナリオにおいて大きな課題となっている。
これらの課題には、多様な車両属性、オクルージョン、照明のバリエーション、影、様々なビデオ解像度の処理が含まれる。
これらの課題に対処するために,マルチオブジェクトマルチカメラ追跡(MO-MCT)のための効率的かつ費用対効果の高いディープラーニングベースのフレームワークを提案する。
提案フレームワークは、オブジェクト検出にMask R-CNNを使用し、重複検出から対象オブジェクトを選択するためにNon-Maximum Suppression(NMS)を用いる。
トランスファーラーニングは再同定に使用され、複数のカメラにまたがるトラックレットの関連と生成を可能にする。
さらに, 適切な損失関数と距離測定を利用して, 閉塞, 照明, 影の課題に対処する。
最後のソリューション識別モジュールは、ResNet-152とDeep SORTベースの車両追跡を組み合わせた機能抽出を行う。
提案するフレームワークは、46のカメラフィードからなる第5回AI City Challengeデータセット(Track 3)で評価される。
これら46のカメラストリームのうち40はモデルトレーニングと検証に使用され、残りの6つはモデルテストに使用される。
提案手法は,IDF1スコアの0.8289,精度とリコールスコアの0.9026と0.8527との競合性能を実現し,ロバストかつ高精度な車両追尾性能を示す。
関連論文リスト
- An Optimized YOLOv5 Based Approach For Real-time Vehicle Detection At Road Intersections Using Fisheye Cameras [0.13092499936969584]
リアルタイム車両検出は都市交通監視の課題である。
魚眼カメラは、広い面積をカバーし、ジャンクションでの360度ビューを提供するために、リアルタイム車両検出の目的に広く利用されている。
車両や街路灯からの光輝き、影、非線形歪み、車両のスケーリング問題、小型車両の適切な位置決めといった課題を克服するため、改良型YOLOv5物体検出方式を提案する。
論文 参考訳(メタデータ) (2025-02-06T23:42:05Z) - CAMO-MOT: Combined Appearance-Motion Optimization for 3D Multi-Object
Tracking with Camera-LiDAR Fusion [34.42289908350286]
3D Multi-object Track (MOT) は、連続的な動的検出時の一貫性を保証する。
LiDAR法で物体の不規則な動きを正確に追跡することは困難である。
複合外観運動最適化(CAMO-MOT)に基づく新しいカメラ-LiDAR融合3DMOTフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-06T14:41:38Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Traffic-Aware Multi-Camera Tracking of Vehicles Based on ReID and Camera
Link Model [43.850588717944916]
MTMCT(Multi-target Multi-camera Tracking)は,スマートシティアプリケーションにおいて重要な技術である。
本稿では,車載用MTMCTフレームワークを提案する。
提案するMTMCTは,CityFlowデータセットを用いて評価し,IDF1の74.93%の新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-22T08:54:47Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。