論文の概要: Evaluating YOLO Architectures: Implications for Real-Time Vehicle Detection in Urban Environments of Bangladesh
- arxiv url: http://arxiv.org/abs/2509.05652v1
- Date: Sat, 06 Sep 2025 09:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.631961
- Title: Evaluating YOLO Architectures: Implications for Real-Time Vehicle Detection in Urban Environments of Bangladesh
- Title(参考訳): YOLOアーキテクチャの評価:バングラデシュの都市環境におけるリアルタイム車両検出の意義
- Authors: Ha Meem Hossain, Pritam Nath, Mahitun Nesa Mahi, Imtiaz Uddin, Ishrat Jahan Eiste, Syed Nasibur Rahman Ratul, Md Naim Uddin Mozumdar, Asif Mohammed Saad,
- Abstract要約: 非バングラデシュのデータセットで訓練された車両検知システムは、バングラデシュのユニークな道路環境において、地元の車両のタイプを正確に識別するのに苦労している。
本研究は、29の異なる車両クラスを特徴とするカスタムデータセット上で、6つのYOLOモデル変異を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vehicle detection systems trained on Non-Bangladeshi datasets struggle to accurately identify local vehicle types in Bangladesh's unique road environments, creating critical gaps in autonomous driving technology for developing regions. This study evaluates six YOLO model variants on a custom dataset featuring 29 distinct vehicle classes, including region-specific vehicles such as ``Desi Nosimon'', ``Leguna'', ``Battery Rickshaw'', and ``CNG''. The dataset comprises high-resolution images (1920x1080) captured across various Bangladeshi roads using mobile phone cameras and manually annotated using LabelImg with YOLO format bounding boxes. Performance evaluation revealed YOLOv11x as the top performer, achieving 63.7\% mAP@0.5, 43.8\% mAP@0.5:0.95, 61.4\% recall, and 61.6\% F1-score, though requiring 45.8 milliseconds per image for inference. Medium variants (YOLOv8m, YOLOv11m) struck an optimal balance, delivering robust detection performance with mAP@0.5 values of 62.5\% and 61.8\% respectively, while maintaining moderate inference times around 14-15 milliseconds. The study identified significant detection challenges for rare vehicle classes, with Construction Vehicles and Desi Nosimons showing near-zero accuracy due to dataset imbalances and insufficient training samples. Confusion matrices revealed frequent misclassifications between visually similar vehicles, particularly Mini Trucks versus Mini Covered Vans. This research provides a foundation for developing robust object detection systems specifically adapted to Bangladesh traffic conditions, addressing critical needs in autonomous vehicle technology advancement for developing regions where conventional generic-trained models fail to perform adequately.
- Abstract(参考訳): 非バングラデシュデータセットでトレーニングされた車両検出システムは、バングラデシュのユニークな道路環境におけるローカルな車両のタイプを正確に識別することに苦労し、発展途上国の自動運転技術において重要なギャップを生じさせている。
本研究は,「Desi Nosimon'」,「Leguna'」,「Battery Rickshaw'」,「CNG'」などの地域特化車両を含む,29の異なる車両クラスを特徴とするカスタムデータセット上で,YOLOモデルの6つの変種を評価する。
このデータセットは、携帯電話カメラを使用してバングラデシュの道路を横断する高解像度画像 (1920x1080) と、YOLOフォーマットのバウンディングボックスを備えた LabelImg を手動でアノテートする。
パフォーマンス評価の結果、YOLOv11xは63.7\% mAP@0.5、43.8\% mAP@0.5:0.95、61.4\%リコール、61.6\% F1スコアを達成した。
中型(YOLOv8m, YOLOv11m)は、それぞれ62.5\%と61.8\%のmAP@0.5値で堅牢な検出性能を達成し、14~15ミリ秒程度の適度な推論時間を維持した。
調査では、データセットの不均衡と不十分なトレーニングサンプルにより、建設車両とDesi Nosimonsがほぼゼロに近い精度を示した。
コンフュージョン行列は視覚的に類似した車種、特にミニトラック対ミニカバーバンの誤分類をしばしば明らかにした。
本研究は,バングラデシュの交通状況に特化して頑健な物体検出システムを開発するための基盤を提供する。
関連論文リスト
- Finetuning YOLOv9 for Vehicle Detection: Deep Learning for Intelligent Transportation Systems in Dhaka, Bangladesh [0.0]
バングラデシュ政府は、スマートモビリティを「スマートバングラデシュビジョン2041」に向けた重要なステップとして、ITSの統合を認めている。
本稿では,バングラデシュのデータセット上で訓練されたネイティブ車両を検出するための細調整対象検出器 YOLOv9 モデルを提案する。
その結果, 平均精度(mAP)は平均値0.934で, IoU(Intersection over Union)は0.5。
論文 参考訳(メタデータ) (2024-09-29T02:33:34Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Bangladeshi Native Vehicle Detection in Wild [1.444899524297657]
本稿ではバングラデシュで最もよく見られる車両のネイティブな車両検出データセットを提案する。
17の異なる車両クラスが考慮され、17326の画像の81542の完全な注釈が付けられている。
実験の結果,BNVDデータセットが車両分布の信頼性を示すことがわかった。
論文 参考訳(メタデータ) (2024-05-20T16:23:40Z) - BadODD: Bangladeshi Autonomous Driving Object Detection Dataset [0.0]
バングラデシュの9地区にわたる多様な運転環境における物体検出のための包括的データセットを提案する。
スマートフォンカメラからのみ収集されたデータセットは、現実のシナリオを現実的に表現したものだ。
論文 参考訳(メタデータ) (2024-01-19T12:26:51Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - Fine-Grained Vehicle Classification in Urban Traffic Scenes using Deep
Learning [0.0]
きめ細かい車種分類は、粗い車種分類に比べて難しい課題である。
既存の車両製造・モデル認識システム(VMMR)は、同期および制御された交通条件に基づいて開発されている。
複雑・都市・異質・非同期の交通条件における堅牢なVMMRの必要性は、まだオープンな研究領域のままである。
論文 参考訳(メタデータ) (2021-11-17T21:19:03Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。