論文の概要: Object Detection and Tracking Algorithms for Vehicle Counting: A
Comparative Analysis
- arxiv url: http://arxiv.org/abs/2007.16198v1
- Date: Fri, 31 Jul 2020 17:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:48:05.823265
- Title: Object Detection and Tracking Algorithms for Vehicle Counting: A
Comparative Analysis
- Title(参考訳): 車両計数のための物体検出と追尾アルゴリズム:比較分析
- Authors: Vishal Mandal and Yaw Adu-Gyamfi
- Abstract要約: 著者は、さまざまな種類の車両を検出し、追跡するために、アートオブジェクトの検出と追跡アルゴリズムのいくつかの状態をデプロイする。
モデルの組み合わせを検証し、手動で数えた9時間以上の交通映像データと比較する。
その結果,CentralNet,Deep SORT,Deuterron2,Deep SORT,YOLOv4,Deep SORTの組み合わせは全車種で最高の総計数率を示した。
- 参考スコア(独自算出の注目度): 3.093890460224435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement in the field of deep learning and high performance
computing has highly augmented the scope of video based vehicle counting
system. In this paper, the authors deploy several state of the art object
detection and tracking algorithms to detect and track different classes of
vehicles in their regions of interest (ROI). The goal of correctly detecting
and tracking vehicles' in their ROI is to obtain an accurate vehicle count.
Multiple combinations of object detection models coupled with different
tracking systems are applied to access the best vehicle counting framework. The
models' addresses challenges associated to different weather conditions,
occlusion and low-light settings and efficiently extracts vehicle information
and trajectories through its computationally rich training and feedback cycles.
The automatic vehicle counts resulting from all the model combinations are
validated and compared against the manually counted ground truths of over 9
hours' traffic video data obtained from the Louisiana Department of
Transportation and Development. Experimental results demonstrate that the
combination of CenterNet and Deep SORT, Detectron2 and Deep SORT, and YOLOv4
and Deep SORT produced the best overall counting percentage for all vehicles.
- Abstract(参考訳): ディープラーニングとハイパフォーマンスコンピューティングの分野における急速な進歩は、ビデオベースの車両計数システムの範囲を大きく拡大した。
本稿では,関心領域(ROI)の異なる車両のクラスを検出し,追跡するために,アートオブジェクトの検出と追跡アルゴリズムのいくつかの状態をデプロイする。
ROIにおける車両の正確な検出と追跡の目標は、正確な車両数を得ることである。
異なるトラッキングシステムと組み合わせたオブジェクト検出モデルの複数組み合わせを、最良の車両カウントフレームワークへのアクセスに適用する。
モデルでは、異なる気象条件、閉塞、低照度設定に関連する課題に対処し、計算に富んだトレーニングとフィードバックサイクルを通じて車両情報や軌道を効率的に抽出する。
ルイジアナ州交通開発局から得られた9時間以上の交通映像データの手動で集計した地上情報と比較し、すべてのモデルの組み合わせから得られた自動車両数を検証した。
実験の結果、センタネットとディープソート、ディテクトロン2とディープソート、そしてヨーロフ4とディープソートの組み合わせは、全車両で最高の総計率を生み出した。
関連論文リスト
- Track Anything Rapter(TAR) [0.0]
Track Anything Rapter (TAR)は、ユーザが提供するマルチモーダルクエリに基づいて、関心のあるオブジェクトを検出し、セグメンテーションし、追跡するように設計されている。
TARは、DINO、CLIP、SAMといった最先端の事前訓練モデルを使用して、クエリされたオブジェクトの相対的なポーズを推定する。
本稿では,これらの基礎モデルとカスタム高レベル制御アルゴリズムの統合によって,高度に安定かつ高精度なトラッキングシステムを実現する方法を紹介する。
論文 参考訳(メタデータ) (2024-05-19T19:51:41Z) - Scrutinizing Data from Sky: An Examination of Its Veracity in Area Based Traffic Contexts [4.099117128714005]
このツールは、交通が均質で車線に基づく動きを持つ先進国で広く利用されている。
検証は、各車両クラスの分類ボリュームカウント(CVC)、空間平均速度(SMS)を用いて行われる。
鳥の視線から得られたデータは、最小限の誤差でかなり正確だ。
論文 参考訳(メタデータ) (2024-04-26T07:40:37Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Robust and Fast Vehicle Detection using Augmented Confidence Map [10.261351772602543]
車両を含む関心領域を強調する拡張の概念を導入する。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
車両検出のための複雑なモデルを実装する既存のモデルとは異なり、粗いセットとファジィベースのモデルの組み合わせについて検討する。
論文 参考訳(メタデータ) (2023-04-27T18:41:16Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。