論文の概要: Dual Radar: A Multi-modal Dataset with Dual 4D Radar for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2310.07602v3
- Date: Thu, 9 Nov 2023 07:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 17:31:56.891476
- Title: Dual Radar: A Multi-modal Dataset with Dual 4D Radar for Autonomous
Driving
- Title(参考訳): Dual Radar: 自律走行のためのDual 4D Radarを備えたマルチモーダルデータセット
- Authors: Xinyu Zhang, Li Wang, Jian Chen, Cheng Fang, Lei Yang, Ziying Song,
Guangqi Yang, Yichen Wang, Xiaofei Zhang, Jun Li, Zhiwei Li, Qingshan Yang,
Zhenlin Zhang, Shuzhi Sam Ge
- Abstract要約: 本稿では,2種類の4Dレーダを同時に捕捉した大規模マルチモーダルデータセットについて紹介する。
データセットは151連続して作成され、その大部分は20秒で、10,007の微妙な同期と注釈付きフレームを含んでいる。
我々はデータセットを実験的に検証し、異なる種類の4Dレーダーの研究に有用な結果を提供する。
- 参考スコア(独自算出の注目度): 22.633794566422687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar has stronger adaptability in adverse scenarios for autonomous driving
environmental perception compared to widely adopted cameras and LiDARs.
Compared with commonly used 3D radars, the latest 4D radars have precise
vertical resolution and higher point cloud density, making it a highly
promising sensor for autonomous driving in complex environmental perception.
However, due to the much higher noise than LiDAR, manufacturers choose
different filtering strategies, resulting in an inverse ratio between noise
level and point cloud density. There is still a lack of comparative analysis on
which method is beneficial for deep learning-based perception algorithms in
autonomous driving. One of the main reasons is that current datasets only adopt
one type of 4D radar, making it difficult to compare different 4D radars in the
same scene. Therefore, in this paper, we introduce a novel large-scale
multi-modal dataset featuring, for the first time, two types of 4D radars
captured simultaneously. This dataset enables further research into effective
4D radar perception algorithms.Our dataset consists of 151 consecutive series,
most of which last 20 seconds and contain 10,007 meticulously synchronized and
annotated frames. Moreover, our dataset captures a variety of challenging
driving scenarios, including many road conditions, weather conditions,
nighttime and daytime with different lighting intensities and periods. Our
dataset annotates consecutive frames, which can be applied to 3D object
detection and tracking, and also supports the study of multi-modal tasks. We
experimentally validate our dataset, providing valuable results for studying
different types of 4D radars. This dataset is released on
https://github.com/adept-thu/Dual-Radar.
- Abstract(参考訳): radarは、広く採用されているカメラやライダーと比較して、自律運転環境認識の悪いシナリオに適応性が高い。
一般的な3dレーダーと比較すると、最新の4dレーダーは正確な垂直解像度と高点の雲密度を持ち、複雑な環境知覚における自律運転のための非常に有望なセンサーである。
しかし、LiDARよりもはるかに高いノイズのため、メーカーは異なるフィルタリング戦略を選択し、ノイズレベルと点雲密度の逆比をもたらす。
自動運転における深層学習に基づく知覚アルゴリズムにとって、どの手法が有益かの比較分析がいまだに欠けている。
主な理由の1つは、現在のデータセットが1種類の4Dレーダーのみを採用するため、同じシーンで異なる4Dレーダーを比較するのは困難である。
そこで本研究では,2種類の4Dレーダを同時に撮影する大規模マルチモーダル・データセットを提案する。
このデータセットは、有効な4Dレーダ認識アルゴリズムのさらなる研究を可能にし、我々のデータセットは151の連続するシリーズで構成され、そのほとんどは、正確に同期された10,007フレームを含む。
さらに我々のデータセットは、多くの道路条件、天候条件、夜間と昼間の照明強度と期間を含む、様々な困難な運転シナリオをキャプチャします。
私たちのデータセットは、3dオブジェクト検出とトラッキングに適用可能な連続フレームを注釈し、マルチモーダルタスクの研究もサポートする。
我々はデータセットを実験的に検証し、異なる種類の4Dレーダーの研究に有用な結果を提供する。
このデータセットはhttps://github.com/adept-thu/Dual-Radarで公開されている。
関連論文リスト
- RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Human Detection from 4D Radar Data in Low-Visibility Field Conditions [17.1888913327586]
現代の4Dイメージングレーダは、範囲、垂直角度、水平角度、ドップラー速度の寸法にわたってターゲット応答を提供する。
セマンティックセグメンテーションにこの4Dレーダモダリティを利用するCNNアーキテクチャTMVA4Dを提案する。
このデータセット上でTMVA4Dを用いてmIoUスコア78.2%、mDiceスコア86.1%を達成し、背景と人物の2つのクラスで評価した。
論文 参考訳(メタデータ) (2024-04-08T08:53:54Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - TJ4DRadSet: A 4D Radar Dataset for Autonomous Driving [16.205201694162092]
我々は、TJ4DRadSetという自律走行データセットを導入し、4Dレーダー、ライダー、カメラ、および合計40Kフレームのシーケンスからなるマルチモーダルセンサーを含む。
我々は,4次元レーダポイント雲に対するディープラーニング手法の有効性を示すために,データセットのための4次元レーダベースの3次元オブジェクト検出ベースラインを提供する。
論文 参考訳(メタデータ) (2022-04-28T13:17:06Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。