論文の概要: Benchmarking Robustness of 3D Object Detection to Common Corruptions in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2303.11040v1
- Date: Mon, 20 Mar 2023 11:45:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 15:45:03.517317
- Title: Benchmarking Robustness of 3D Object Detection to Common Corruptions in
Autonomous Driving
- Title(参考訳): 自律運転における共通汚損に対する3次元物体検出のロバスト性
- Authors: Yinpeng Dong, Caixin Kang, Jinlai Zhang, Zijian Zhu, Yikai Wang, Xiao
Yang, Hang Su, Xingxing Wei, Jun Zhu
- Abstract要約: 既存の3D検出器は、悪天候やセンサーノイズなどによって引き起こされる現実世界の腐敗に対して堅牢性に欠ける。
実世界の運転シナリオを考慮したLiDARとカメラ入力の27種類の共通汚職をベンチマークした。
本研究は,24種類の3次元物体検出モデルを用いた大規模実験を行い,ロバスト性の評価を行った。
- 参考スコア(独自算出の注目度): 44.753797839280516
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D object detection is an important task in autonomous driving to perceive
the surroundings. Despite the excellent performance, the existing 3D detectors
lack the robustness to real-world corruptions caused by adverse weathers,
sensor noises, etc., provoking concerns about the safety and reliability of
autonomous driving systems. To comprehensively and rigorously benchmark the
corruption robustness of 3D detectors, in this paper we design 27 types of
common corruptions for both LiDAR and camera inputs considering real-world
driving scenarios. By synthesizing these corruptions on public datasets, we
establish three corruption robustness benchmarks -- KITTI-C, nuScenes-C, and
Waymo-C. Then, we conduct large-scale experiments on 24 diverse 3D object
detection models to evaluate their corruption robustness. Based on the
evaluation results, we draw several important findings, including: 1)
motion-level corruptions are the most threatening ones that lead to significant
performance drop of all models; 2) LiDAR-camera fusion models demonstrate
better robustness; 3) camera-only models are extremely vulnerable to image
corruptions, showing the indispensability of LiDAR point clouds. We release the
benchmarks and codes at https://github.com/kkkcx/3D_Corruptions_AD. We hope
that our benchmarks and findings can provide insights for future research on
developing robust 3D object detection models.
- Abstract(参考訳): 3dオブジェクト検出は、周囲を知覚する自動運転において重要なタスクである。
優れた性能にもかかわらず、既存の3D検出器は悪天候やセンサノイズなどによる現実世界の汚職に対する堅牢性を欠き、自動運転システムの安全性と信頼性に関する懸念を引き起こしている。
本稿では, 実世界の運転シナリオを考慮したLiDARおよびカメラ入力における27種類の共通汚職について, 包括的かつ厳密に評価する。
これらの腐敗をパブリックデータセット上で合成することにより,kitti-c,nuscenes-c,waymo-cの3つの腐敗ロバスト性ベンチマークを確立する。
そして,24種類の多種多様な3次元物体検出モデルを用いて大規模な実験を行い,その破壊性を評価する。
評価結果から,いくつかの重要な知見が得られた。
1) 動作レベルの腐敗は,すべてのモデルの大幅な性能低下につながる最も脅威となる。
2)LiDAR-カメラ融合モデルはより堅牢性を示す。
3) カメラのみのモデルは画像破損に対して極めて脆弱であり,lidar点雲の必須性を示している。
ベンチマークとコードはhttps://github.com/kkkcx/3D_Corruptions_ADで公開しています。
我々は、我々のベンチマークと結果が、堅牢な3Dオブジェクト検出モデルの開発に関する将来の研究の洞察を提供することを期待している。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - MultiCorrupt: A Multi-Modal Robustness Dataset and Benchmark of LiDAR-Camera Fusion for 3D Object Detection [5.462358595564476]
自動走行のためのマルチモーダル3Dオブジェクト検出モデルは、nuScenesのようなコンピュータビジョンベンチマークでは例外的な性能を示した。
しかし、密集したLiDAR点雲や精密に校正されたセンサーアレイへの依存は、現実世界のアプリケーションに課題をもたらす。
我々は,10種類の汚職に対してマルチモーダル3Dオブジェクト検出器の堅牢性を評価するためのベンチマークであるMultiCorruptを紹介する。
論文 参考訳(メタデータ) (2024-02-18T18:56:13Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - Sensor Adversarial Traits: Analyzing Robustness of 3D Object Detection
Sensor Fusion Models [16.823829387723524]
我々は,高性能でオープンソースのセンサ融合モデルアーキテクチャの強靭性を敵攻撃に対して解析する。
LIDARセンサーを使用しているにもかかわらず、このモデルは、意図的に構築された画像ベースの敵攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2021-09-13T23:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。