論文の概要: RSUD20K: A Dataset for Road Scene Understanding In Autonomous Driving
- arxiv url: http://arxiv.org/abs/2401.07322v1
- Date: Sun, 14 Jan 2024 16:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:00:02.423680
- Title: RSUD20K: A Dataset for Road Scene Understanding In Autonomous Driving
- Title(参考訳): RSUD20K:自動運転における道路シーン理解のためのデータセット
- Authors: Hasib Zunair, Shakib Khan, and A. Ben Hamza
- Abstract要約: RSUD20Kは、バングラデシュの道路の運転から見た20K以上の高解像度画像からなる、道路シーン理解のための新しいデータセットである。
我々の作業は以前の取り組みを大幅に改善し、詳細なアノテーションを提供し、オブジェクトの複雑さを増大させます。
- 参考スコア(独自算出の注目度): 6.372000468173298
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Road scene understanding is crucial in autonomous driving, enabling machines
to perceive the visual environment. However, recent object detectors tailored
for learning on datasets collected from certain geographical locations struggle
to generalize across different locations. In this paper, we present RSUD20K, a
new dataset for road scene understanding, comprised of over 20K high-resolution
images from the driving perspective on Bangladesh roads, and includes 130K
bounding box annotations for 13 objects. This challenging dataset encompasses
diverse road scenes, narrow streets and highways, featuring objects from
different viewpoints and scenes from crowded environments with densely
cluttered objects and various weather conditions. Our work significantly
improves upon previous efforts, providing detailed annotations and increased
object complexity. We thoroughly examine the dataset, benchmarking various
state-of-the-art object detectors and exploring large vision models as image
annotators.
- Abstract(参考訳): 道路シーンの理解は、機械が視覚環境を知覚できるように、自動運転において不可欠である。
しかし、最近のオブジェクト検出器は、特定の地理的な場所から収集されたデータセットを学習するために調整されている。
本稿では,バングラデシュ道路の運転視点から20K以上の高解像度画像で構成され,13のオブジェクトに対する130K境界ボックスアノテーションを含む道路シーン理解のための新しいデータセットであるRSUD20Kを提案する。
この挑戦的なデータセットは、様々な道路のシーン、狭い通りとハイウェイを含み、さまざまな視点からのオブジェクトと、密集した乱雑な物体と様々な気象条件のある混雑した環境からのシーンを含んでいる。
我々の作業は以前の取り組みを大幅に改善し、詳細なアノテーションを提供し、オブジェクトの複雑さを増大させます。
我々はデータセットを徹底的に検証し、最先端の物体検出器をベンチマークし、画像アノテーションとして大規模ビジョンモデルを探索する。
関連論文リスト
- ROAD-Waymo: Action Awareness at Scale for Autonomous Driving [17.531603453254434]
ROAD-Waymoは、道路シーンにおけるエージェント、アクション、位置、イベント検出の技術の開発とベンチマークのための広範なデータセットである。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
論文 参考訳(メタデータ) (2024-11-03T20:46:50Z) - RoboSense: Large-scale Dataset and Benchmark for Multi-sensor Low-speed Autonomous Driving [62.5830455357187]
本稿では,3種類のセンサ(Camera, LiDAR, Fisheye)をベースとしたマルチモーダルデータ収集プラットフォームを構築する。
RoboSenseという名前の大規模なマルチセンサーデータセットが構築されており、ニアフィールドシーンの理解を容易にする。
RoboSenseは、1133K以上の同期データと1.4Mの3DバウンディングボックスとIDをフル360円のビューに格納し、7.6Kの時間シーケンスに216Kのトラジェクトリを形成する。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - WayveScenes101: A Dataset and Benchmark for Novel View Synthesis in Autonomous Driving [4.911903454560829]
WayveScenes101は、新しいビュー合成において、コミュニティが技術の状態を前進させるのを助けるために設計されたデータセットである。
データセットは、幅広い環境条件と運転シナリオにわたる101の運転シーンで構成されている。
論文 参考訳(メタデータ) (2024-07-11T08:29:45Z) - IDD-X: A Multi-View Dataset for Ego-relative Important Object Localization and Explanation in Dense and Unstructured Traffic [35.23523738296173]
大規模なデュアルビュー駆動ビデオデータセットであるIDD-Xを提案する。
697Kのバウンディングボックス、9Kの重要なオブジェクトトラック、ビデオあたり1-12のオブジェクトを持つIDD-Xは、複数の重要なロードオブジェクトに対して包括的なエゴ相対アノテーションを提供する。
また、複数の重要なオブジェクトのローカライゼーションとオブジェクトごとの説明予測を目的とした、カスタムデザインのディープネットワークも導入する。
論文 参考訳(メタデータ) (2024-04-12T16:00:03Z) - Habitat Synthetic Scenes Dataset (HSSD-200): An Analysis of 3D Scene
Scale and Realism Tradeoffs for ObjectGoal Navigation [70.82403156865057]
本研究では,合成3次元シーン・データセット・スケールとリアリズムが,オブジェクトの探索とナビゲートを行う具体的エージェントの訓練作業に与える影響について検討する。
我々の実験によると、我々の小規模データセットで訓練されたエージェントは、はるかに大きなデータセットで訓練されたエージェントと一致するか、より優れています。
論文 参考訳(メタデータ) (2023-06-20T05:07:23Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - METEOR: A Massive Dense & Heterogeneous Behavior Dataset for Autonomous
Driving [42.69638782267657]
本稿では、インドにおける非構造化シナリオにおけるトラフィックパターンをキャプチャする、新しい複雑なトラフィックデータセットMETEORを提案する。
METEORは1000分以上のビデオクリップと、エゴ車軌道を持つ200万以上の注釈付きフレームと、周囲の車両や交通機関のための1300万以上のバウンディングボックスで構成されている。
我々は,オブジェクト検出と行動予測アルゴリズムの性能を評価するために,新しいデータセットを用いた。
論文 参考訳(メタデータ) (2021-09-16T01:01:55Z) - Concealed Object Detection [140.98738087261887]
隠蔽物体検出(COD)に関する最初の体系的研究を紹介します。
CODは、背景に「完全に」埋め込まれているオブジェクトを特定することを目指しています。
このタスクをより理解するために、cod10kと呼ばれる大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2021-02-20T06:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。