論文の概要: BadODD: Bangladeshi Autonomous Driving Object Detection Dataset
- arxiv url: http://arxiv.org/abs/2401.10659v1
- Date: Fri, 19 Jan 2024 12:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:55:34.662838
- Title: BadODD: Bangladeshi Autonomous Driving Object Detection Dataset
- Title(参考訳): badodd:バングラデシュの自動運転オブジェクト検出データセット
- Authors: Mirza Nihal Baig, Rony Hajong, Mahdi Murshed Patwary, Mohammad
Shahidur Rahman, Husne Ara Chowdhury
- Abstract要約: バングラデシュの9地区にわたる多様な運転環境における物体検出のための包括的データセットを提案する。
スマートフォンカメラからのみ収集されたデータセットは、現実のシナリオを現実的に表現したものだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a comprehensive dataset for object detection in diverse driving
environments across 9 districts in Bangladesh. The dataset, collected
exclusively from smartphone cameras, provided a realistic representation of
real-world scenarios, including day and night conditions. Most existing
datasets lack suitable classes for autonomous navigation on Bangladeshi roads,
making it challenging for researchers to develop models that can handle the
intricacies of road scenarios. To address this issue, the authors proposed a
new set of classes based on characteristics rather than local vehicle names.
The dataset aims to encourage the development of models that can handle the
unique challenges of Bangladeshi road scenarios for the effective deployment of
autonomous vehicles. The dataset did not consist of any online images to
simulate real-world conditions faced by autonomous vehicles. The classification
of vehicles is challenging because of the diverse range of vehicles on
Bangladeshi roads, including those not found elsewhere in the world. The
proposed classification system is scalable and can accommodate future vehicles,
making it a valuable resource for researchers in the autonomous vehicle sector.
- Abstract(参考訳): バングラデシュの9地区にまたがる多様な運転環境における物体検出のための包括的データセットを提案する。
スマートフォンカメラからのみ収集されたデータセットは、昼と夜を含む現実のシナリオをリアルに表現する。
既存のデータセットの多くはバングラデシュの道路での自律ナビゲーションに適したクラスを欠いているため、研究者が道路シナリオの複雑さを扱えるモデルを開発するのは難しい。
この問題に対処するため,著者らは,車両名ではなく特徴に基づく新しいクラスを提案した。
このデータセットは、バングラデシュの道路シナリオのユニークな課題に対処できるモデルの開発を促進することを目的としている。
データセットは、自動運転車が直面する現実の状況をシミュレートするオンラインイメージで構成されていない。
バングラデシュの道路での車両の分類は、世界中の他の場所では見つからないものを含む様々な種類の車両の分類が困難である。
提案する分類システムはスケーラブルであり、将来の車両に対応できるため、自動運転車分野の研究者にとって貴重な資源となる。
関連論文リスト
- FedRAV: Hierarchically Federated Region-Learning for Traffic Object Classification of Autonomous Vehicles [7.8896851741869085]
自動運転車の階層的統合地域学習フレームワーク(FedRAV)を提案する。
FedRAVは、定義された地域距離に基づいて、車両を含む広い領域をサブリージョンに適応的に分割し、パーソナライズされた車両モデルと地域モデルを達成する。
実験の結果、我々のフレームワークはこれらの既知のアルゴリズムより優れており、少なくとも3.69%精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-11-21T09:45:55Z) - DiffRoad: Realistic and Diverse Road Scenario Generation for Autonomous Vehicle Testing [12.964224581549281]
DiffRoadは、制御可能で高忠実な3D道路シナリオを生成するために設計された、新しい拡散モデルである。
Road-UNetアーキテクチャは、バックボーンとスキップ接続のバランスを最適化し、高現実性シナリオを生成する。
生成されたシナリオはOpenDRIVEフォーマットで完全に自動化できる。
論文 参考訳(メタデータ) (2024-11-14T13:56:02Z) - Pedestrian motion prediction evaluation for urban autonomous driving [0.0]
我々は、従来の動き予測指標の妥当性を決定するために、提供されたオープンソースソリューションを用いて、選択した出版物を解析する。
この視点は、既存の最先端の歩行者運動予測問題の現実的なパフォーマンスを探している、自動運転やロボット工学の潜在的なエンジニアにとって価値があるだろう。
論文 参考訳(メタデータ) (2024-10-22T10:06:50Z) - Finetuning YOLOv9 for Vehicle Detection: Deep Learning for Intelligent Transportation Systems in Dhaka, Bangladesh [0.0]
バングラデシュ政府は、スマートモビリティを「スマートバングラデシュビジョン2041」に向けた重要なステップとして、ITSの統合を認めている。
本稿では,バングラデシュのデータセット上で訓練されたネイティブ車両を検出するための細調整対象検出器 YOLOv9 モデルを提案する。
その結果, 平均精度(mAP)は平均値0.934で, IoU(Intersection over Union)は0.5。
論文 参考訳(メタデータ) (2024-09-29T02:33:34Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。