論文の概要: An Optimized YOLOv5 Based Approach For Real-time Vehicle Detection At Road Intersections Using Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2502.04566v1
- Date: Thu, 06 Feb 2025 23:42:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:56:37.884273
- Title: An Optimized YOLOv5 Based Approach For Real-time Vehicle Detection At Road Intersections Using Fisheye Cameras
- Title(参考訳): 魚眼カメラを用いた道路交差点におけるリアルタイム車両検出のためのYOLOv5に基づく最適化手法
- Authors: Md. Jahin Alam, Muhammad Zubair Hasan, Md Maisoon Rahman, Md Awsafur Rahman, Najibul Haque Sarker, Shariar Azad, Tasnim Nishat Islam, Bishmoy Paul, Tanvir Anjum, Barproda Halder, Shaikh Anowarul Fattah,
- Abstract要約: リアルタイム車両検出は都市交通監視の課題である。
魚眼カメラは、広い面積をカバーし、ジャンクションでの360度ビューを提供するために、リアルタイム車両検出の目的に広く利用されている。
車両や街路灯からの光輝き、影、非線形歪み、車両のスケーリング問題、小型車両の適切な位置決めといった課題を克服するため、改良型YOLOv5物体検出方式を提案する。
- 参考スコア(独自算出の注目度): 0.13092499936969584
- License:
- Abstract: Real time vehicle detection is a challenging task for urban traffic surveillance. Increase in urbanization leads to increase in accidents and traffic congestion in junction areas resulting in delayed travel time. In order to solve these problems, an intelligent system utilizing automatic detection and tracking system is significant. But this becomes a challenging task at road intersection areas which require a wide range of field view. For this reason, fish eye cameras are widely used in real time vehicle detection purpose to provide large area coverage and 360 degree view at junctions. However, it introduces challenges such as light glare from vehicles and street lights, shadow, non-linear distortion, scaling issues of vehicles and proper localization of small vehicles. To overcome each of these challenges, a modified YOLOv5 object detection scheme is proposed. YOLOv5 is a deep learning oriented convolutional neural network (CNN) based object detection method. The proposed scheme for detecting vehicles in fish-eye images consists of a light-weight day-night CNN classifier so that two different solutions can be implemented to address the day-night detection issues. Furthurmore, challenging instances are upsampled in the dataset for proper localization of vehicles and later on the detection model is ensembled and trained in different combination of vehicle datasets for better generalization, detection and accuracy. For testing, a real world fisheye dataset provided by the Video and Image Processing (VIP) Cup organizer ISSD has been used which includes images from video clips of different fisheye cameras at junction of different cities during day and night time. Experimental results show that our proposed model has outperformed the YOLOv5 model on the dataset by 13.7% mAP @ 0.5.
- Abstract(参考訳): リアルタイム車両検出は都市交通監視の課題である。
都市化が進むと、交通渋滞や交通渋滞が増加し、交通時間が遅れる。
これらの問題を解決するために,自動検出・追跡システムを利用したインテリジェントシステムが重要である。
しかし、広い範囲の視野を必要とする道路交差点地域では、これは難しい課題となっている。
このため、魚眼カメラはリアルタイム車両検出の目的で広く利用されており、広い面積のカバーとジャンクションでの360度視界を提供する。
しかし、車や街灯からの光の輝き、影、非線形歪み、車両のスケーリング問題、小型車両の適切な位置化といった課題も導入されている。
これらの課題を克服するために、改良されたYOLOv5オブジェクト検出方式を提案する。
YOLOv5は、ディープラーニング指向の畳み込みニューラルネットワーク(CNN)ベースのオブジェクト検出手法である。
魚眼画像における車両検出手法は,軽量の日夜CNN分類器により,昼夜検出問題に対処するために2つの異なる解を実装できる。
さらに、挑戦的なインスタンスは、車両の適切なローカライゼーションのためにデータセットにアップサンプリングされ、後に検出モデル上で、より優れた一般化、検出、正確性のために、異なる組み合わせの車両データセットでアンサンブルされ、トレーニングされる。
テストには、VIPカップのオーガナイザであるICDが提供した現実世界の魚眼データセットを使用しており、昼と夜の異なる都市の交差点で、さまざまな魚眼カメラの映像クリップを収録している。
実験の結果,提案モデルではデータセット上のYOLOv5モデルを13.7% mAP @ 0.5で上回った。
関連論文リスト
- Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - aUToLights: A Robust Multi-Camera Traffic Light Detection and Tracking
System [6.191246748708665]
我々は、トロント大学の自動運転車であるアルテミスのような自動運転車のための、最近設計された交通信号認識システムについて説明する。
複数のカメラにまたがってボックスレグレッションとトラフィック光の分類を行うためのYOLOv5検出器をデプロイし、観測結果を融合する。
実世界のシナリオにおいて,単一フレーム,単一カメラオブジェクト検出と比較して,より優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-15T14:28:34Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - TraCon: A novel dataset for real-time traffic cones detection using deep
learning [7.759841699582662]
本研究では,交通円錐の効率的かつ迅速な検出のための解を見つけるために,YOLOv5アルゴリズムを用いる。
YOLOv5はIoUのスコアを91.31%まで高感度で検出できる。
論文 参考訳(メタデータ) (2022-05-24T06:51:58Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。