論文の概要: V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception
- arxiv url: http://arxiv.org/abs/2411.10962v1
- Date: Sun, 17 Nov 2024 04:59:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:33:17.652645
- Title: V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception
- Title(参考訳): V2X-Radar : 協調知覚のための4次元レーダを用いたマルチモーダルデータセット
- Authors: Lei Yang, Xinyu Zhang, Jun Li, Chen Wang, Zhiying Song, Tong Zhao, Ziying Song, Li Wang, Mo Zhou, Yang Shen, Kai Wu, Chen Lv,
- Abstract要約: V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きバウンディングボックスがある。
多様な研究領域を容易にするために、協調的な知覚のためのV2X-Radar-C、道路側知覚のためのV2X-Radar-I、単車車知覚のためのV2X-Radar-Vを確立する。
- 参考スコア(独自算出の注目度): 45.001209388616736
- License:
- Abstract: Modern autonomous vehicle perception systems often struggle with occlusions and limited perception range. Previous studies have demonstrated the effectiveness of cooperative perception in extending the perception range and overcoming occlusions, thereby improving the safety of autonomous driving. In recent years, a series of cooperative perception datasets have emerged. However, these datasets only focus on camera and LiDAR, overlooking 4D Radar, a sensor employed in single-vehicle autonomous driving for robust perception in adverse weather conditions. In this paper, to bridge the gap of missing 4D Radar datasets in cooperative perception, we present V2X-Radar, the first large real-world multi-modal dataset featuring 4D Radar. Our V2X-Radar dataset is collected using a connected vehicle platform and an intelligent roadside unit equipped with 4D Radar, LiDAR, and multi-view cameras. The collected data includes sunny and rainy weather conditions, spanning daytime, dusk, and nighttime, as well as typical challenging scenarios. The dataset comprises 20K LiDAR frames, 40K camera images, and 20K 4D Radar data, with 350K annotated bounding boxes across five categories. To facilitate diverse research domains, we establish V2X-Radar-C for cooperative perception, V2X-Radar-I for roadside perception, and V2X-Radar-V for single-vehicle perception. We further provide comprehensive benchmarks of recent perception algorithms on the above three sub-datasets. The dataset and benchmark codebase will be available at \url{http://openmpd.com/column/V2X-Radar}.
- Abstract(参考訳): 現代の自動運転車の認識システムは、隠蔽と限られた知覚範囲に苦しむことが多い。
従来の研究は、認知範囲を広げ、閉塞を克服し、自律運転の安全性を向上させるための協調認識の有効性を実証してきた。
近年、一連の協調認識データセットが出現している。
しかし、これらのデータセットはカメラとLiDARのみに焦点を当てており、4D Radarを見下ろしている。
本稿では、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットであるV2X-Radarについて述べる。
我々のV2X-Radarデータセットは、コネクテッドカープラットフォームと、4D Radar、LiDAR、マルチビューカメラを備えたインテリジェントロードサイドユニットを使用して収集される。
収集されたデータには、晴れた雨の天候、昼間、夕暮れ、夜間、そして典型的な困難なシナリオが含まれる。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きバウンディングボックスがある。
多様な研究領域を容易にするために、協調的な知覚のためのV2X-Radar-C、道路側知覚のためのV2X-Radar-I、単車車知覚のためのV2X-Radar-Vを確立する。
さらに、上記の3つのサブデータセット上で、最新の知覚アルゴリズムの包括的なベンチマークを提供する。
データセットとベンチマークのコードベースは、 \url{http://openmpd.com/column/V2X-Radar}で利用可能になる。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Multi-sensor Low-speed Autonomous Driving [62.5830455357187]
本稿では,3種類のセンサ(Camera, LiDAR, Fisheye)をベースとしたマルチモーダルデータ収集プラットフォームを構築する。
RoboSenseという名前の大規模なマルチセンサーデータセットが構築されており、ニアフィールドシーンの理解を容易にする。
RoboSenseは、1133K以上の同期データと1.4Mの3DバウンディングボックスとIDをフル360円のビューに格納し、7.6Kの時間シーケンスに216Kのトラジェクトリを形成する。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - TUMTraf V2X Cooperative Perception Dataset [20.907021313266128]
協調型マルチモーダル融合モデルであるCoopDet3Dと認識データセットであるTUMTraf-V2Xを提案する。
私たちのデータセットには2,000のラベル付きポイントクラウドと5000のラベル付きイメージが5つの道端と4つのオンボードセンサーから含まれています。
当社のCoopDet3Dカメラ-LiDAR融合モデルでは,車載カメラ-LiDAR融合モデルと比較して+14.363D mAPの増加が達成されている。
論文 参考訳(メタデータ) (2024-03-02T21:29:04Z) - Dual Radar: A Multi-modal Dataset with Dual 4D Radar for Autonomous
Driving [22.633794566422687]
本稿では,2種類の4Dレーダを同時に捕捉した大規模マルチモーダルデータセットについて紹介する。
データセットは151連続して作成され、その大部分は20秒で、10,007の微妙な同期と注釈付きフレームを含んでいる。
我々はデータセットを実験的に検証し、異なる種類の4Dレーダーの研究に有用な結果を提供する。
論文 参考訳(メタデータ) (2023-10-11T15:41:52Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - TJ4DRadSet: A 4D Radar Dataset for Autonomous Driving [16.205201694162092]
我々は、TJ4DRadSetという自律走行データセットを導入し、4Dレーダー、ライダー、カメラ、および合計40Kフレームのシーケンスからなるマルチモーダルセンサーを含む。
我々は,4次元レーダポイント雲に対するディープラーニング手法の有効性を示すために,データセットのための4次元レーダベースの3次元オブジェクト検出ベースラインを提供する。
論文 参考訳(メタデータ) (2022-04-28T13:17:06Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。