論文の概要: BadODD: Bangladeshi Autonomous Driving Object Detection Dataset
- arxiv url: http://arxiv.org/abs/2401.10659v1
- Date: Fri, 19 Jan 2024 12:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:55:34.662838
- Title: BadODD: Bangladeshi Autonomous Driving Object Detection Dataset
- Title(参考訳): badodd:バングラデシュの自動運転オブジェクト検出データセット
- Authors: Mirza Nihal Baig, Rony Hajong, Mahdi Murshed Patwary, Mohammad
Shahidur Rahman, Husne Ara Chowdhury
- Abstract要約: バングラデシュの9地区にわたる多様な運転環境における物体検出のための包括的データセットを提案する。
スマートフォンカメラからのみ収集されたデータセットは、現実のシナリオを現実的に表現したものだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a comprehensive dataset for object detection in diverse driving
environments across 9 districts in Bangladesh. The dataset, collected
exclusively from smartphone cameras, provided a realistic representation of
real-world scenarios, including day and night conditions. Most existing
datasets lack suitable classes for autonomous navigation on Bangladeshi roads,
making it challenging for researchers to develop models that can handle the
intricacies of road scenarios. To address this issue, the authors proposed a
new set of classes based on characteristics rather than local vehicle names.
The dataset aims to encourage the development of models that can handle the
unique challenges of Bangladeshi road scenarios for the effective deployment of
autonomous vehicles. The dataset did not consist of any online images to
simulate real-world conditions faced by autonomous vehicles. The classification
of vehicles is challenging because of the diverse range of vehicles on
Bangladeshi roads, including those not found elsewhere in the world. The
proposed classification system is scalable and can accommodate future vehicles,
making it a valuable resource for researchers in the autonomous vehicle sector.
- Abstract(参考訳): バングラデシュの9地区にまたがる多様な運転環境における物体検出のための包括的データセットを提案する。
スマートフォンカメラからのみ収集されたデータセットは、昼と夜を含む現実のシナリオをリアルに表現する。
既存のデータセットの多くはバングラデシュの道路での自律ナビゲーションに適したクラスを欠いているため、研究者が道路シナリオの複雑さを扱えるモデルを開発するのは難しい。
この問題に対処するため,著者らは,車両名ではなく特徴に基づく新しいクラスを提案した。
このデータセットは、バングラデシュの道路シナリオのユニークな課題に対処できるモデルの開発を促進することを目的としている。
データセットは、自動運転車が直面する現実の状況をシミュレートするオンラインイメージで構成されていない。
バングラデシュの道路での車両の分類は、世界中の他の場所では見つからないものを含む様々な種類の車両の分類が困難である。
提案する分類システムはスケーラブルであり、将来の車両に対応できるため、自動運転車分野の研究者にとって貴重な資源となる。
関連論文リスト
- ANNA: A Deep Learning Based Dataset in Heterogeneous Traffic for
Autonomous Vehicles [2.932123507260722]
本研究ではバングラデシュの視点で、特定されていない車両を含むカスタムビルドデータセットについて論じる。
IOU(Intersection Over Union)メトリックを用いたモデルの評価により,データセットの妥当性チェックを行った。
その結果、バングラデシュのトラフィックに関するKITTIまたはCOCOデータセットでトレーニングされたモデルよりも、カスタムデータセットでトレーニングされたモデルの方が正確で効率的であることが判明した。
論文 参考訳(メタデータ) (2024-01-21T01:14:04Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Probabilistic End-to-End Vehicle Navigation in Complex Dynamic
Environments with Multimodal Sensor Fusion [16.018962965273495]
全日と全天候のナビゲーションは、自動運転にとって重要な機能である。
本稿では,カメラ,ライダー,レーダからの情報を利用して,触覚能力を備えた確率的運転モデルを提案する。
その結果,提案モデルがベースラインを上回り,目に見えない環境での優れた一般化性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-05-05T03:48:10Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。