論文の概要: Bangladeshi Native Vehicle Detection in Wild
- arxiv url: http://arxiv.org/abs/2405.12150v1
- Date: Mon, 20 May 2024 16:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 12:45:20.549089
- Title: Bangladeshi Native Vehicle Detection in Wild
- Title(参考訳): バングラデシュ、野生で自家用車検出
- Authors: Bipin Saha, Md. Johirul Islam, Shaikh Khaled Mostaque, Aditya Bhowmik, Tapodhir Karmakar Taton, Md. Nakib Hayat Chowdhury, Mamun Bin Ibne Reaz,
- Abstract要約: 本稿ではバングラデシュで最もよく見られる車両のネイティブな車両検出データセットを提案する。
17の異なる車両クラスが考慮され、17326の画像の81542の完全な注釈が付けられている。
実験の結果,BNVDデータセットが車両分布の信頼性を示すことがわかった。
- 参考スコア(独自算出の注目度): 1.444899524297657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of autonomous navigation relies on robust and precise vehicle recognition, hindered by the scarcity of region-specific vehicle detection datasets, impeding the development of context-aware systems. To advance terrestrial object detection research, this paper proposes a native vehicle detection dataset for the most commonly appeared vehicle classes in Bangladesh. 17 distinct vehicle classes have been taken into account, with fully annotated 81542 instances of 17326 images. Each image width is set to at least 1280px. The dataset's average vehicle bounding box-to-image ratio is 4.7036. This Bangladesh Native Vehicle Dataset (BNVD) has accounted for several geographical, illumination, variety of vehicle sizes, and orientations to be more robust on surprised scenarios. In the context of examining the BNVD dataset, this work provides a thorough assessment with four successive You Only Look Once (YOLO) models, namely YOLO v5, v6, v7, and v8. These dataset's effectiveness is methodically evaluated and contrasted with other vehicle datasets already in use. The BNVD dataset exhibits mean average precision(mAP) at 50% intersection over union (IoU) is 0.848 corresponding precision and recall values of 0.841 and 0.774. The research findings indicate a mAP of 0.643 at an IoU range of 0.5 to 0.95. The experiments show that the BNVD dataset serves as a reliable representation of vehicle distribution and presents considerable complexities.
- Abstract(参考訳): 自律ナビゲーションの成功は、地域固有の車両検出データセットの不足によって妨げられ、コンテキスト認識システムの開発を妨げる、堅牢で正確な車両認識に依存している。
そこで本研究では,バングラデシュで最もよく見られる車両群を対象とした固有車両検出データセットを提案する。
17の異なる車両クラスが考慮され、17326の画像の81542の完全な注釈が付けられている。
各画像幅は少なくとも1280pxに設定されている。
データセットの平均車両バウンディングボックス-イメージ比は4.7036である。
このバングラデシュのNative Vehicle Dataset(BNVD)は、いくつかの地理的、照明、さまざまな車両サイズ、そして、驚きのシナリオでより堅牢な方向を考慮に入れている。
BNVDデータセットを調べる上で、この研究は4つの連続したYou Only Look Once(YOLO)モデル、すなわちYOLO v5、v6、v7、v8で徹底的な評価を提供する。
これらのデータセットの有効性は、すでに使用されている他の車両データセットと方法論的に評価され、対比される。
BNVDデータセットは、結合(IoU)上の50%の交差点における平均平均精度(mAP)が0.848で、0.841と0.774の精度とリコール値に対応する。
研究結果は、IoUの0.5から0.95の範囲で、mAPが0.643であることを示している。
実験の結果,BNVDデータセットは車両分布の信頼性の高い表現として機能し,かなりの複雑さを示すことがわかった。
関連論文リスト
- A Real-Time DETR Approach to Bangladesh Road Object Detection for Autonomous Vehicles [0.0]
検出トランスフォーマーは、オブジェクト検出の最先端のソリューションになっている。
実時間DECRモデルは、推定時間において大幅に向上する。
この結果、公的な60%テストセットで0.41518、プライベートな40%テストセットで0.28194、mAP50スコアが0.41518となった。
論文 参考訳(メタデータ) (2024-11-22T18:21:20Z) - DEEGITS: Deep Learning based Framework for Measuring Heterogenous Traffic State in Challenging Traffic Scenarios [0.0]
本稿では,DeEGITS(Deep Heterogeneous Traffic State Measurement)を提案する。これは最先端の畳み込みニューラルネットワーク(CNN)技術を利用して,車両や歩行者を正確にかつ迅速に検出する包括的フレームワークである。
本研究では,データ融合によるトレーニングデータセットを強化し,車両と歩行者の同時検出を可能にする。
このフレームワークは混合交通条件における異種交通状態を測定するために試験される。
論文 参考訳(メタデータ) (2024-11-13T04:49:32Z) - ANNA: A Deep Learning Based Dataset in Heterogeneous Traffic for
Autonomous Vehicles [2.932123507260722]
本研究ではバングラデシュの視点で、特定されていない車両を含むカスタムビルドデータセットについて論じる。
IOU(Intersection Over Union)メトリックを用いたモデルの評価により,データセットの妥当性チェックを行った。
その結果、バングラデシュのトラフィックに関するKITTIまたはCOCOデータセットでトレーニングされたモデルよりも、カスタムデータセットでトレーニングされたモデルの方が正確で効率的であることが判明した。
論文 参考訳(メタデータ) (2024-01-21T01:14:04Z) - BadODD: Bangladeshi Autonomous Driving Object Detection Dataset [0.0]
バングラデシュの9地区にわたる多様な運転環境における物体検出のための包括的データセットを提案する。
スマートフォンカメラからのみ収集されたデータセットは、現実のシナリオを現実的に表現したものだ。
論文 参考訳(メタデータ) (2024-01-19T12:26:51Z) - Whole-body Detection, Recognition and Identification at Altitude and
Range [57.445372305202405]
多様なデータセットに基づいて評価したエンドツーエンドシステムを提案する。
我々のアプローチでは、一般的な画像データセットで検出器を事前トレーニングし、BRIARの複雑なビデオや画像でそれを微調整する。
屋内・屋外・航空シナリオにおける様々な範囲や角度の異なる条件下で徹底的な評価を行う。
論文 参考訳(メタデータ) (2023-11-09T20:20:23Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。