論文の概要: Online Clustering-based Multi-Camera Vehicle Tracking in Scenarios with
overlapping FOVs
- arxiv url: http://arxiv.org/abs/2102.04091v1
- Date: Mon, 8 Feb 2021 09:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:39:10.282483
- Title: Online Clustering-based Multi-Camera Vehicle Tracking in Scenarios with
overlapping FOVs
- Title(参考訳): fovの重複を考慮したオンラインクラスタリングによるマルチカメラ車両追跡
- Authors: Elena Luna, Juan C. SanMiguel, Jose M. Mart\'inez, and Marcos
Escudero-Vi\~nolo
- Abstract要約: マルチターゲットマルチカメラ(MTMC)車両追跡は,視覚的交通監視において重要な課題である。
本稿では,MTMC追跡のための新しい低遅延オンライン手法を提案する。
- 参考スコア(独自算出の注目度): 2.6365690297272617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Target Multi-Camera (MTMC) vehicle tracking is an essential task of
visual traffic monitoring, one of the main research fields of Intelligent
Transportation Systems. Several offline approaches have been proposed to
address this task; however, they are not compatible with real-world
applications due to their high latency and post-processing requirements. In
this paper, we present a new low-latency online approach for MTMC tracking in
scenarios with partially overlapping fields of view (FOVs), such as road
intersections. Firstly, the proposed approach detects vehicles at each camera.
Then, the detections are merged between cameras by applying cross-camera
clustering based on appearance and location. Lastly, the clusters containing
different detections of the same vehicle are temporally associated to compute
the tracks on a frame-by-frame basis. The experiments show promising
low-latency results while addressing real-world challenges such as the a priori
unknown and time-varying number of targets and the continuous state estimation
of them without performing any post-processing of the trajectories.
- Abstract(参考訳): マルチターゲットマルチカメラ(MTMC)車両追跡は、インテリジェントトランスポーテーションシステムの主要な研究分野の一つである視覚的交通監視の不可欠な課題である。
このタスクに対処するためにいくつかのオフラインアプローチが提案されているが、レイテンシと処理後の要件が高いため、現実のアプリケーションとは互換性がない。
本稿では,道路交差点など,部分的に重なる視野(FOV)を持つシナリオにおいて,MTMC追跡のための新しい低レイテンシオンラインアプローチを提案する。
まず,提案手法は各カメラの車両を検知する。
そして、外観と位置に基づくクロスカメラクラスタリングを適用することで、カメラ間で検出をマージする。
最後に、同一車両の異なる検出を含むクラスタを時間的に関連付けてフレーム単位のトラックを算出する。
実験では, 軌道の後処理を行なわずに, 未知の, 時間変化のターゲット数などの現実的な課題に対処しながら, 低レイテンシの結果が期待できることを示す。
関連論文リスト
- MCTR: Multi Camera Tracking Transformer [45.66952089591361]
Multi-Camera Tracking tRansformer (MCTR)は、マルチオブジェクト検出と複数のカメラ間のトラッキングに適した、エンドツーエンドのアプローチである。
MCTRは、Detector TRansformer (DETR)のようなエンドツーエンドの検出器を利用して、カメラビューごとに独立して検出および検出埋め込みを生成する。
このフレームワークは、追跡されたオブジェクトに関するグローバル情報を付加する一連のトラック埋め込みを維持し、ビュー固有の検出埋め込みからローカル情報を統合することで、各フレームでそれらを更新する。
論文 参考訳(メタデータ) (2024-08-23T17:37:03Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Multi-Target Multi-Camera Tracking of Vehicles using Metadata-Aided
Re-ID and Trajectory-Based Camera Link Model [32.01329933787149]
メタデータ支援再識別(MA-ReID)とトラジェクトリベースカメラリンクモデル(TCLM)に基づく車両のマルチターゲットマルチカメラ追跡のための新しいフレームワークを提案する。
提案手法はcityflowデータセット上で評価され,idf176.77%となり,最先端mtmct法を上回った。
論文 参考訳(メタデータ) (2021-05-03T23:20:37Z) - Traffic-Aware Multi-Camera Tracking of Vehicles Based on ReID and Camera
Link Model [43.850588717944916]
MTMCT(Multi-target Multi-camera Tracking)は,スマートシティアプリケーションにおいて重要な技術である。
本稿では,車載用MTMCTフレームワークを提案する。
提案するMTMCTは,CityFlowデータセットを用いて評価し,IDF1の74.93%の新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-22T08:54:47Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Tracking Passengers and Baggage Items using Multi-camera Systems at
Security Checkpoints [0.7424262881242935]
本稿では,空港のチェックポイントセキュリティシナリオのためのカメラビデオの複数のオブジェクトをトラッキングする新しいトラッキング・バイ・検出フレームワークを提案する。
提案手法は,テスト時間データ拡張手法を用いてオブジェクト検出を改善する。
空港チェックポイント環境における複数のオーバーヘッドカメラから得られた映像の検出,追跡,関連性の評価は,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-07-15T18:09:31Z) - Tracking Road Users using Constraint Programming [79.32806233778511]
本稿では,マルチオブジェクトトラッキング(MOT)問題のトラッキング・バイ・検出パラダイムに見られるデータアソシエーションフェーズに対する制約プログラミング(CP)アプローチを提案する。
提案手法は車両追跡データを用いてテストし,UA-DETRACベンチマークの上位手法よりも優れた結果を得た。
論文 参考訳(メタデータ) (2020-03-10T00:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。