論文の概要: Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh
- arxiv url: http://arxiv.org/abs/2212.09144v1
- Date: Sun, 18 Dec 2022 18:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 17:31:24.607114
- Title: Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh
- Title(参考訳): バングラデシュにおける交通画像からの車両検出のためのYOLOアーキテクチャの性能解析
- Authors: Refaat Mohammad Alamgir, Ali Abir Shuvro, Mueeze Al Mushabbir,
Mohammed Ashfaq Raiyan, Nusrat Jahan Rani, Md. Mushfiqur Rahman, Md. Hasanul
Kabir, and Sabbir Ahmed
- Abstract要約: バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of locating and classifying different types of vehicles has become a
vital element in numerous applications of automation and intelligent systems
ranging from traffic surveillance to vehicle identification and many more. In
recent times, Deep Learning models have been dominating the field of vehicle
detection. Yet, Bangladeshi vehicle detection has remained a relatively
unexplored area. One of the main goals of vehicle detection is its real-time
application, where `You Only Look Once' (YOLO) models have proven to be the
most effective architecture. In this work, intending to find the best-suited
YOLO architecture for fast and accurate vehicle detection from traffic images
in Bangladesh, we have conducted a performance analysis of different variants
of the YOLO-based architectures such as YOLOV3, YOLOV5s, and YOLOV5x. The
models were trained on a dataset containing 7390 images belonging to 21 types
of vehicles comprising samples from the DhakaAI dataset, the Poribohon-BD
dataset, and our self-collected images. After thorough quantitative and
qualitative analysis, we found the YOLOV5x variant to be the best-suited model,
performing better than YOLOv3 and YOLOv5s models respectively by 7 & 4 percent
in mAP, and 12 & 8.5 percent in terms of Accuracy.
- Abstract(参考訳): 様々な種類の車両を特定・分類するタスクは、交通監視から車両識別に至るまで、多数の自動化およびインテリジェントシステムの応用において重要な要素となっている。
近年、ディープ・ラーニング・モデルは車両検出の分野を支配している。
しかし、バングラデシュの車両検出はいまだに未調査地域である。
車両検出の主な目標のひとつは,‘you only look once’(yolo)モデルが最も効果的なアーキテクチャであることが証明された,リアルタイムアプリケーションである。
本研究は,バングラデシュの交通画像から高速かつ正確な車両検出を行うために,最も適したYOLOアーキテクチャを見つけることを目的として,YOLOV3, YOLOV5s, YOLOV5xなどのYOLOベースのアーキテクチャの様々なバリエーションの性能解析を行った。
モデルでは,dhakaaiデータセット,poribohon-bdデータセット,および自己収集した画像を含む21種類の車両の7390画像を含むデータセットを訓練した。
徹底的な定量的および定性的分析の結果, YOLOV5x は YOLOv3 と YOLOv5s のモデルよりも, それぞれ 7 と 4% の mAP と 12 と 8.5% の精度で, 最適なモデルであることが判明した。
関連論文リスト
- Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors [0.0]
本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - Comparing YOLOv5 Variants for Vehicle Detection: A Performance Analysis [0.0]
本研究は, YOLOv5n6s, YOLOv5s6s, YOLOv5m6s, YOLOv5l6s, YOLOv5x6sの5変種の比較分析を行った。
YOLOv5n6は精度とリコールのバランスが強いことを示した。
論文 参考訳(メタデータ) (2024-08-22T17:06:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Densely-Populated Traffic Detection using YOLOv5 and Non-Maximum
Suppression Ensembling [0.0]
本稿では, YOLOv5を用いて, 密集した画像から車両の物体を識別し, 分類する手法を提案する。
提案手法は,昼夜の道路上側と上側の両方から撮影した画像に対して良好に動作する。
論文 参考訳(メタデータ) (2021-08-27T04:58:45Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。