論文の概要: ROAD-Waymo: Action Awareness at Scale for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2411.01683v1
- Date: Sun, 03 Nov 2024 20:46:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:39:46.930637
- Title: ROAD-Waymo: Action Awareness at Scale for Autonomous Driving
- Title(参考訳): ROAD-Waymo: 自動運転のためのスケールでの行動意識
- Authors: Salman Khan, Izzeddin Teeti, Reza Javanmard Alitappeh, Mihaela C. Stoian, Eleonora Giunchiglia, Gurkirt Singh, Andrew Bradley, Fabio Cuzzolin,
- Abstract要約: ROAD-Waymoは、道路シーンにおけるエージェント、アクション、位置、イベント検出の技術の開発とベンチマークのための広範なデータセットである。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
- 参考スコア(独自算出の注目度): 17.531603453254434
- License:
- Abstract: Autonomous Vehicle (AV) perception systems require more than simply seeing, via e.g., object detection or scene segmentation. They need a holistic understanding of what is happening within the scene for safe interaction with other road users. Few datasets exist for the purpose of developing and training algorithms to comprehend the actions of other road users. This paper presents ROAD-Waymo, an extensive dataset for the development and benchmarking of techniques for agent, action, location and event detection in road scenes, provided as a layer upon the (US) Waymo Open dataset. Considerably larger and more challenging than any existing dataset (and encompassing multiple cities), it comes with 198k annotated video frames, 54k agent tubes, 3.9M bounding boxes and a total of 12.4M labels. The integrity of the dataset has been confirmed and enhanced via a novel annotation pipeline designed for automatically identifying violations of requirements specifically designed for this dataset. As ROAD-Waymo is compatible with the original (UK) ROAD dataset, it provides the opportunity to tackle domain adaptation between real-world road scenarios in different countries within a novel benchmark: ROAD++.
- Abstract(参考訳): 自律走行車(AV)の認識システムは、例えば物体の検出やシーンのセグメンテーションを通じて、単に見る以上のものを必要とする。
他の道路利用者と安全にやりとりするためには、現場で何が起きているのかを総合的に理解する必要がある。
他の道路利用者の行動を理解するアルゴリズムを開発し、訓練するためのデータセットはほとんど存在しない。
本稿では,道路シーンにおけるエージェント,アクション,位置,イベント検出のための技術開発とベンチマークのための広範なデータセットであるROAD-Waymoについて述べる。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
データセットの完全性は、このデータセット用に特別に設計された要件の違反を自動的に識別するために設計された、新しいアノテーションパイプラインを通じて確認され、拡張されている。
ROAD-Waymoはオリジナルの(UK)ROADデータセットと互換性があるため、新たなベンチマークであるROAD++で、さまざまな国の現実の道路シナリオ間のドメイン適応に取り組む機会を提供する。
関連論文リスト
- IDD-X: A Multi-View Dataset for Ego-relative Important Object Localization and Explanation in Dense and Unstructured Traffic [35.23523738296173]
大規模なデュアルビュー駆動ビデオデータセットであるIDD-Xを提案する。
697Kのバウンディングボックス、9Kの重要なオブジェクトトラック、ビデオあたり1-12のオブジェクトを持つIDD-Xは、複数の重要なロードオブジェクトに対して包括的なエゴ相対アノテーションを提供する。
また、複数の重要なオブジェクトのローカライゼーションとオブジェクトごとの説明予測を目的とした、カスタムデザインのディープネットワークも導入する。
論文 参考訳(メタデータ) (2024-04-12T16:00:03Z) - RSUD20K: A Dataset for Road Scene Understanding In Autonomous Driving [6.372000468173298]
RSUD20Kは、バングラデシュの道路の運転から見た20K以上の高解像度画像からなる、道路シーン理解のための新しいデータセットである。
我々の作業は以前の取り組みを大幅に改善し、詳細なアノテーションを提供し、オブジェクトの複雑さを増大させます。
論文 参考訳(メタデータ) (2024-01-14T16:10:42Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - ROAD: The ROad event Awareness Dataset for Autonomous Driving [16.24547478826027]
ROADは、自動運転車が道路イベントを検出する能力をテストするように設計されている。
22のビデオで構成され、各道路イベントのイメージプレーンの位置を示すバウンディングボックスがアノテートされています。
また、RetinaNetに基づいて、オンライン道路イベント認識のための新しいインクリメンタルアルゴリズムをベースラインとして提供します。
論文 参考訳(メタデータ) (2021-02-23T09:48:56Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。