論文の概要: ROAD: The ROad event Awareness Dataset for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2102.11585v1
- Date: Tue, 23 Feb 2021 09:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:18:58.701461
- Title: ROAD: The ROad event Awareness Dataset for Autonomous Driving
- Title(参考訳): ROAD:自動運転のためのROADイベント認識データセット
- Authors: Gurkirt Singh, Stephen Akrigg, Manuele Di Maio, Valentina Fontana,
Reza Javanmard Alitappeh, Suman Saha, Kossar Jeddisaravi, Farzad Yousefi,
Jacob Culley, Tom Nicholson, Jordan Omokeowa, Salman Khan, Stanislao
Grazioso, Andrew Bradley, Giuseppe Di Gironimo, Fabio Cuzzolin
- Abstract要約: ROADは、自動運転車が道路イベントを検出する能力をテストするように設計されている。
22のビデオで構成され、各道路イベントのイメージプレーンの位置を示すバウンディングボックスがアノテートされています。
また、RetinaNetに基づいて、オンライン道路イベント認識のための新しいインクリメンタルアルゴリズムをベースラインとして提供します。
- 参考スコア(独自算出の注目度): 16.24547478826027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans approach driving in a holistic fashion which entails, in particular,
understanding road events and their evolution. Injecting these capabilities in
an autonomous vehicle has thus the potential to take situational awareness and
decision making closer to human-level performance. To this purpose, we
introduce the ROad event Awareness Dataset (ROAD) for Autonomous Driving, to
our knowledge the first of its kind. ROAD is designed to test an autonomous
vehicle's ability to detect road events, defined as triplets composed by a
moving agent, the action(s) it performs and the corresponding scene locations.
ROAD comprises 22 videos, originally from the Oxford RobotCar Dataset,
annotated with bounding boxes showing the location in the image plane of each
road event. We also provide as baseline a new incremental algorithm for online
road event awareness, based on inflating RetinaNet along time, which achieves a
mean average precision of 16.8% and 6.1% for frame-level and video-level event
detection, respectively, at 50% overlap. Though promising, these figures
highlight the challenges faced by situation awareness in autonomous driving.
Finally, ROAD allows scholars to investigate exciting tasks such as complex
(road) activity detection, future road event anticipation and the modelling of
sentient road agents in terms of mental states.
- Abstract(参考訳): 人間は、特に道路イベントとその進化を理解することを伴う総合的な方法で運転にアプローチする。
これらの機能を自動運転車に投入することで、状況認識と意思決定を人間レベルのパフォーマンスに近づける可能性があります。
この目的のために、我々は、自動運転のためのROADイベントAwareness Dataset(ROAD)を私たちの知識に紹介する。
ROADは、移動エージェント、実行するアクション、および対応するシーンの位置で構成されたトリプレットとして定義された、道路イベントを検出する自律車両の能力をテストするように設計されています。
ROADは、もともとOxford RobotCar Datasetからの22のビデオで構成されており、各道路イベントのイメージプレーン内の位置を示すバウンディングボックスがアノテートされている。
また、オンライン道路イベント認識のための新たなインクリメンタルアルゴリズムとして、時間とともに膨張するRetinaNetをベースとして、フレームレベルおよびビデオレベルのイベント検出において平均16.8%と6.1%の平均精度を50%のオーバーラップで達成する。
これらの数字は有望だが、自動運転における状況認識が直面する課題を強調している。
最後に、道路学者は複雑な(道路)活動の検出、将来の道路イベント予測、精神状態の感覚的な道路エージェントのモデル化といったエキサイティングなタスクを研究できる。
関連論文リスト
- ROAD-Waymo: Action Awareness at Scale for Autonomous Driving [17.531603453254434]
ROAD-Waymoは、道路シーンにおけるエージェント、アクション、位置、イベント検出の技術の開発とベンチマークのための広範なデータセットである。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
論文 参考訳(メタデータ) (2024-11-03T20:46:50Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - VRUNet: Multi-Task Learning Model for Intent Prediction of Vulnerable
Road Users [3.6265173818019947]
本稿では、歩行者行動の予測、横断意図の予測、ビデオシーケンスからの将来の経路予測のためのマルチタスク学習モデルを提案する。
我々は、行動アノテーションや実世界のシナリオに富んだ、オープンソースのJAADデータセットを自然言語で駆動するモデルを訓練しました。
実験結果からJAADデータセットの最先端性能が示された。
論文 参考訳(メタデータ) (2020-07-10T14:02:25Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Pedestrian Patterns Dataset [11.193504036335503]
データセットは、異なる特定のタイムスロットから1週間、同じ3つのルートを繰り返すことで収集された。
データセットの目的は、横断するルートに沿って異なる時間に、社会的および歩行者の行動パターンをキャプチャすることである。
論文 参考訳(メタデータ) (2020-01-06T23:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。