論文の概要: SemanticSpray++: A Multimodal Dataset for Autonomous Driving in Wet Surface Conditions
- arxiv url: http://arxiv.org/abs/2406.09945v1
- Date: Fri, 14 Jun 2024 11:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:05:00.595210
- Title: SemanticSpray++: A Multimodal Dataset for Autonomous Driving in Wet Surface Conditions
- Title(参考訳): SemanticSpray++:湿潤表面条件下での自律運転のためのマルチモーダルデータセット
- Authors: Aldi Piroli, Vinzenz Dallabetta, Johannes Kopp, Marc Walessa, Daniel Meissner, Klaus Dietmayer,
- Abstract要約: SemanticSpray++データセットは、湿った表面条件下でのハイウェイのようなシナリオのカメラ、LiDAR、レーダーデータのためのラベルを提供する。
3つのセンサーのモダリティをラベル付けすることで、データセットは、異なる知覚方法のパフォーマンスを分析するための包括的なテストベッドを提供する。
- 参考スコア(独自算出の注目度): 10.306226508237348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles rely on camera, LiDAR, and radar sensors to navigate the environment. Adverse weather conditions like snow, rain, and fog are known to be problematic for both camera and LiDAR-based perception systems. Currently, it is difficult to evaluate the performance of these methods due to the lack of publicly available datasets containing multimodal labeled data. To address this limitation, we propose the SemanticSpray++ dataset, which provides labels for camera, LiDAR, and radar data of highway-like scenarios in wet surface conditions. In particular, we provide 2D bounding boxes for the camera image, 3D bounding boxes for the LiDAR point cloud, and semantic labels for the radar targets. By labeling all three sensor modalities, the SemanticSpray++ dataset offers a comprehensive test bed for analyzing the performance of different perception methods when vehicles travel on wet surface conditions. Together with comprehensive label statistics, we also evaluate multiple baseline methods across different tasks and analyze their performances. The dataset will be available at https://semantic-spray-dataset.github.io .
- Abstract(参考訳): 自動運転車は、環境をナビゲートするためにカメラ、LiDAR、レーダーセンサーに依存している。
雪、雨、霧といった逆の気象条件は、カメラとLiDARベースの認識システムに問題があることが知られている。
現在、マルチモーダルラベル付きデータを含むデータセットが公開されていないため、これらの手法の性能を評価することは困難である。
この制限に対処するために、濡れた表面条件下でのハイウェイのようなシナリオのカメラ、LiDAR、レーダーデータにラベルを提供するSemanticSpray++データセットを提案する。
特に、カメラ画像用の2Dバウンディングボックス、LiDARポイントクラウド用の3Dバウンディングボックス、レーダーターゲット用のセマンティックラベルを提供する。
SemanticSpray++データセットは、3つのセンサーのすべてのモダリティをラベル付けすることで、車両が濡れた表面を走行する際に異なる知覚方法のパフォーマンスを分析するための包括的なテストベッドを提供する。
また,包括的ラベル統計と合わせて,複数のタスクにまたがる複数のベースライン手法を評価し,その性能を解析する。
データセットはhttps://semantic-spray-dataset.github.ioで提供される。
関連論文リスト
- Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - RADIATE: A Radar Dataset for Automotive Perception in Bad Weather [13.084162751635239]
RADIATEには3時間のアノテートされたレーダー画像があり、合計で200万以上の俳優がいる。
様々な天候条件下で8種類の俳優をカバーしている。
RADIATEにはステレオ画像、32チャンネルのLiDAR、GPSデータもあり、他のアプリケーションに向けられている。
論文 参考訳(メタデータ) (2020-10-18T19:33:27Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。