論文の概要: MSC-Bench: Benchmarking and Analyzing Multi-Sensor Corruption for Driving Perception
- arxiv url: http://arxiv.org/abs/2501.01037v1
- Date: Thu, 02 Jan 2025 03:38:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:15:30.091985
- Title: MSC-Bench: Benchmarking and Analyzing Multi-Sensor Corruption for Driving Perception
- Title(参考訳): MSC-Bench: 運転知覚のためのベンチマークとマルチセンサの破損解析
- Authors: Xiaoshuai Hao, Guanqun Liu, Yuting Zhao, Yuheng Ji, Mengchuan Wei, Haimei Zhao, Lingdong Kong, Rong Yin, Yu Liu,
- Abstract要約: マルチセンサー融合モデルは、特に3Dオブジェクト検出やHDマップ構築といったタスクにおいて、自律運転知覚において重要な役割を果たす。
これらのモデルは、自律運転システムに必須かつ包括的な静的環境情報を提供する。
カメラ-LiDAR融合法は有望な結果を示しているが、それらはしばしば完全なセンサー入力に依存する。
この依存は、センサーが破損したり行方不明になったりした場合のロバスト性や潜在的な故障を招き、重大な安全性上の懸念を引き起こす可能性がある。
この課題に対処するために,多センサ自律運転知覚モデルの各種センサ破損に対する堅牢性評価を目的とした,初の総合的なベンチマークであるMulti-Sensor Corruption Benchmark(MSC-Bench)を導入する。
- 参考スコア(独自算出の注目度): 9.575044300747061
- License:
- Abstract: Multi-sensor fusion models play a crucial role in autonomous driving perception, particularly in tasks like 3D object detection and HD map construction. These models provide essential and comprehensive static environmental information for autonomous driving systems. While camera-LiDAR fusion methods have shown promising results by integrating data from both modalities, they often depend on complete sensor inputs. This reliance can lead to low robustness and potential failures when sensors are corrupted or missing, raising significant safety concerns. To tackle this challenge, we introduce the Multi-Sensor Corruption Benchmark (MSC-Bench), the first comprehensive benchmark aimed at evaluating the robustness of multi-sensor autonomous driving perception models against various sensor corruptions. Our benchmark includes 16 combinations of corruption types that disrupt both camera and LiDAR inputs, either individually or concurrently. Extensive evaluations of six 3D object detection models and four HD map construction models reveal substantial performance degradation under adverse weather conditions and sensor failures, underscoring critical safety issues. The benchmark toolkit and affiliated code and model checkpoints have been made publicly accessible.
- Abstract(参考訳): マルチセンサー融合モデルは、特に3Dオブジェクト検出やHDマップ構築といったタスクにおいて、自律運転知覚において重要な役割を果たす。
これらのモデルは、自律運転システムに必須かつ包括的な静的環境情報を提供する。
カメラ-LiDAR融合法は両モードのデータを統合することで有望な結果を示したが、それらはしばしば完全なセンサー入力に依存する。
この依存は、センサーが破損したり行方不明になったりした場合のロバスト性や潜在的な故障を招き、重大な安全性上の懸念を引き起こす可能性がある。
この課題に対処するために,多センサ自律運転知覚モデルの各種センサ破損に対する堅牢性を評価することを目的とした,最初の総合的なベンチマークであるMulti-Sensor Corruption Benchmark(MSC-Bench)を紹介する。
私たちのベンチマークには、カメラとLiDARの両方の入力を個別または並列に妨害する16種類の汚職タイプが含まれています。
6つの3次元物体検出モデルと4つのHDマップ構築モデルの広範囲な評価は、悪天候条件下での大幅な性能劣化とセンサーの故障を示し、重大な安全性の問題を浮き彫りにした。
ベンチマークツールキットと関連するコードとモデルチェックポイントが一般に公開されている。
関連論文リスト
- MultiCorrupt: A Multi-Modal Robustness Dataset and Benchmark of LiDAR-Camera Fusion for 3D Object Detection [5.462358595564476]
自動走行のためのマルチモーダル3Dオブジェクト検出モデルは、nuScenesのようなコンピュータビジョンベンチマークでは例外的な性能を示した。
しかし、密集したLiDAR点雲や精密に校正されたセンサーアレイへの依存は、現実世界のアプリケーションに課題をもたらす。
我々は,10種類の汚職に対してマルチモーダル3Dオブジェクト検出器の堅牢性を評価するためのベンチマークであるMultiCorruptを紹介する。
論文 参考訳(メタデータ) (2024-02-18T18:56:13Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - Benchmarking Robustness of 3D Object Detection to Common Corruptions in
Autonomous Driving [44.753797839280516]
既存の3D検出器は、悪天候やセンサーノイズなどによって引き起こされる現実世界の腐敗に対して堅牢性に欠ける。
実世界の運転シナリオを考慮したLiDARとカメラ入力の27種類の共通汚職をベンチマークした。
本研究は,24種類の3次元物体検出モデルを用いた大規模実験を行い,ロバスト性の評価を行った。
論文 参考訳(メタデータ) (2023-03-20T11:45:54Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Safety-Enhanced Autonomous Driving Using Interpretable Sensor Fusion
Transformer [28.15612357340141]
我々は、InterFuser(Interpretable Sensor Fusion Transformer)という安全強化型自律走行フレームワークを提案する。
我々は、総合的なシーン理解と対向事象検出を実現するために、マルチモーダル・マルチビューセンサーからの情報を処理し、融合する。
私たちのフレームワークは、よりセマンティクスを提供し、安全なセット内のアクションをよりよく制約するために利用されます。
論文 参考訳(メタデータ) (2022-07-28T11:36:21Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Sensor Adversarial Traits: Analyzing Robustness of 3D Object Detection
Sensor Fusion Models [16.823829387723524]
我々は,高性能でオープンソースのセンサ融合モデルアーキテクチャの強靭性を敵攻撃に対して解析する。
LIDARセンサーを使用しているにもかかわらず、このモデルは、意図的に構築された画像ベースの敵攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2021-09-13T23:38:42Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Investigating the Effect of Sensor Modalities in Multi-Sensor
Detection-Prediction Models [8.354898936252516]
我々は,モデル性能に対するセンサモダリティの寄与に注目した。
また,上記の課題を解決するためにセンサドロップアウトの利用について検討する。
論文 参考訳(メタデータ) (2021-01-09T03:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。