論文の概要: RADIATE: A Radar Dataset for Automotive Perception in Bad Weather
- arxiv url: http://arxiv.org/abs/2010.09076v3
- Date: Mon, 5 Apr 2021 14:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 04:32:32.738239
- Title: RADIATE: A Radar Dataset for Automotive Perception in Bad Weather
- Title(参考訳): radiatione: 悪天候時の自動車知覚のためのレーダーデータセット
- Authors: Marcel Sheeny, Emanuele De Pellegrin, Saptarshi Mukherjee, Alireza
Ahrabian, Sen Wang, Andrew Wallace
- Abstract要約: RADIATEには3時間のアノテートされたレーダー画像があり、合計で200万以上の俳優がいる。
様々な天候条件下で8種類の俳優をカバーしている。
RADIATEにはステレオ画像、32チャンネルのLiDAR、GPSデータもあり、他のアプリケーションに向けられている。
- 参考スコア(独自算出の注目度): 13.084162751635239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Datasets for autonomous cars are essential for the development and
benchmarking of perception systems. However, most existing datasets are
captured with camera and LiDAR sensors in good weather conditions. In this
paper, we present the RAdar Dataset In Adverse weaThEr (RADIATE), aiming to
facilitate research on object detection, tracking and scene understanding using
radar sensing for safe autonomous driving. RADIATE includes 3 hours of
annotated radar images with more than 200K labelled road actors in total, on
average about 4.6 instances per radar image. It covers 8 different categories
of actors in a variety of weather conditions (e.g., sun, night, rain, fog and
snow) and driving scenarios (e.g., parked, urban, motorway and suburban),
representing different levels of challenge. To the best of our knowledge, this
is the first public radar dataset which provides high-resolution radar images
on public roads with a large amount of road actors labelled. The data collected
in adverse weather, e.g., fog and snowfall, is unique. Some baseline results of
radar based object detection and recognition are given to show that the use of
radar data is promising for automotive applications in bad weather, where
vision and LiDAR can fail. RADIATE also has stereo images, 32-channel LiDAR and
GPS data, directed at other applications such as sensor fusion, localisation
and mapping. The public dataset can be accessed at
http://pro.hw.ac.uk/radiate/.
- Abstract(参考訳): 自動運転車のデータセットは知覚システムの開発とベンチマークに不可欠である。
しかし、既存のデータセットのほとんどは、良好な天候下でカメラとLiDARセンサーでキャプチャされる。
本稿では,安全自動運転のためのレーダーセンシングを用いた物体検出,追跡,シーン理解の促進を目的としたRAdar Dataset In Adverse weaThEr(RADIATE)を提案する。
RADIATEには3時間のアノテートされたレーダー画像と200K以上のラベル付き道路アクターがあり、レーダー画像当たり平均4.6インスタンスである。
様々な天候条件(例えば、太陽、夜、雨、霧、雪)のアクターと運転シナリオ(例えば、駐車、都市、高速道路、郊外など)の8つのカテゴリーをカバーし、様々なレベルの課題を表現している。
我々の知る限りでは、これは公道上で大量の道路アクターがラベル付けされた高解像度レーダー画像を提供する最初の公開レーダデータセットである。
霧や降雪などの悪天候で収集されたデータは独特である。
レーダーによる物体検出と認識のベースライン結果は、レーダーデータの使用は、視覚とLiDARが故障する悪天候下での自動車応用に有望であることを示すものである。
RADIATEにはステレオ画像、32チャンネルのLiDARとGPSデータがあり、センサー融合、ローカライゼーション、マッピングなどの他のアプリケーションに向けられている。
公開データセットはhttp://pro.hw.ac.uk/radiate/でアクセスできる。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Vision meets mmWave Radar: 3D Object Perception Benchmark for Autonomous
Driving [30.456314610767667]
CRUW3Dデータセットには、66K同期カメラ、レーダー、LiDARフレームが含まれる。
この種のフォーマットは、カメラとレーダーの間の情報や特徴を融合させた後、機械学習モデルによりより信頼性の高い知覚結果が得られる。
論文 参考訳(メタデータ) (2023-11-17T01:07:37Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Raw High-Definition Radar for Multi-Task Learning [0.0]
本研究では、レンジ・アジマス・ドップラー3Dテンソルの計算オーバーヘッドを解消する新しいHDレーダセンシングモデルFFT-RadNetを提案する。
FFT-RadNetは車両の検知と自由運転スペースの分断のために訓練されている。
どちらのタスクでも、最新のレーダベースのモデルと競合するが、計算量やメモリは少ない。
論文 参考訳(メタデータ) (2021-12-20T16:15:26Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。