論文の概要: Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2205.14951v1
- Date: Mon, 30 May 2022 09:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 03:11:36.208576
- Title: Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection
- Title(参考訳): 3次元物体検出のためのLiDAR-Camera Fusionのロバスト性評価
- Authors: Kaicheng Yu, Tang Tao, Hongwei Xie, Zhiwei Lin, Zhongwei Wu, Zhongyu
Xia, Tingting Liang, Haiyang Sun, Jiong Deng, Dayang Hao, Yongtao Wang,
Xiaodan Liang, Bing Wang
- Abstract要約: 自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
- 参考スコア(独自算出の注目度): 58.81316192862618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are two critical sensors for 3D perception in autonomous driving, the
camera and the LiDAR. The camera provides rich semantic information such as
color, texture, and the LiDAR reflects the 3D shape and locations of
surrounding objects. People discover that fusing these two modalities can
significantly boost the performance of 3D perception models as each modality
has complementary information to the other. However, we observe that current
datasets are captured from expensive vehicles that are explicitly designed for
data collection purposes, and cannot truly reflect the realistic data
distribution due to various reasons. To this end, we collect a series of
real-world cases with noisy data distribution, and systematically formulate a
robustness benchmark toolkit, that simulates these cases on any clean
autonomous driving datasets. We showcase the effectiveness of our toolkit by
establishing the robustness benchmark on two widely-adopted autonomous driving
datasets, nuScenes and Waymo, then, to the best of our knowledge, holistically
benchmark the state-of-the-art fusion methods for the first time. We observe
that: i) most fusion methods, when solely developed on these data, tend to fail
inevitably when there is a disruption to the LiDAR input; ii) the improvement
of the camera input is significantly inferior to the LiDAR one. We further
propose an efficient robust training strategy to improve the robustness of the
current fusion method. The benchmark and code are available at
https://github.com/kcyu2014/lidar-camera-robust-benchmark
- Abstract(参考訳): 自動運転車の3D認識には、カメラとLiDARの2つの重要なセンサーがある。
カメラは色、テクスチャなどの豊富な意味情報を提供し、lidarは周囲の物体の3d形状と位置を反映する。
これらの2つのモダリティを融合させることで、各モダリティが相互に相補的な情報を持つため、3次元知覚モデルの性能が著しく向上することを発見した。
しかし、現在のデータセットは、データ収集目的で明示的に設計されており、様々な理由から現実的なデータ分布を反映できない高価な車両から取得されている。
この目的のために、ノイズの多いデータ分布を持つ実世界の事例を収集し、クリーンな自動運転データセット上でこれらのケースをシミュレートするロバストネスベンチマークツールキットを体系的に定式化する。
我々は,このツールキットの有効性を,広く採用されている2つの自動運転データセット,nuscenesとwaymo上でロバスト性ベンチマークを確立し,その上で我々の知識を最大限に活用し,最先端の融合手法を初めて段階的にベンチマークすることで紹介する。
私たちはそれを観察します
i) 核融合法は,これらのデータのみに基づいて開発された場合,LiDAR入力に障害が発生した場合,必然的に故障する傾向にある。
二 カメラ入力の改善は、LiDARよりも著しく劣る。
また,現在の核融合法のロバスト性を改善するための効率的なロバストトレーニング戦略を提案する。
ベンチマークとコードはhttps://github.com/kcyu2014/lidar-camera-robust-benchmarkで入手できる。
関連論文リスト
- Cross-Domain Spatial Matching for Camera and Radar Sensor Data Fusion in Autonomous Vehicle Perception System [0.0]
本稿では,自律走行車認識システムにおける3次元物体検出のためのカメラとレーダーセンサの融合問題に対する新しいアプローチを提案する。
我々のアプローチは、ディープラーニングの最近の進歩に基づいており、両方のセンサーの強度を活用して物体検出性能を向上させる。
提案手法は単一センサ・ソリューションよりも優れた性能を実現し,他のトップレベルの融合手法と直接競合できることを示す。
論文 参考訳(メタデータ) (2024-04-25T12:04:31Z) - ShaSTA-Fuse: Camera-LiDAR Sensor Fusion to Model Shape and
Spatio-Temporal Affinities for 3D Multi-Object Tracking [26.976216624424385]
3Dマルチオブジェクトトラッキング(MOT)は、自律移動エージェントが安全にシーンをナビゲートするために不可欠である。
我々は,カメラとLiDARセンサ情報を融合した3DMOTフレームワークの開発を目指している。
論文 参考訳(メタデータ) (2023-10-04T02:17:59Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - SemanticBEVFusion: Rethink LiDAR-Camera Fusion in Unified Bird's-Eye
View Representation for 3D Object Detection [14.706717531900708]
LiDARとカメラは、自律運転における3Dオブジェクト検出に不可欠な2つのセンサーである。
近年の手法では,LiDAR点雲にカメラ機能を持たせた点レベルの融合に焦点が当てられている。
We present SemanticBEVFusion to deep fuse camera features with LiDAR features in an unified BEV representation。
論文 参考訳(メタデータ) (2022-12-09T05:48:58Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - Frustum Fusion: Pseudo-LiDAR and LiDAR Fusion for 3D Detection [0.0]
本稿では,立体対から得られる高精度な点雲と,密度が高いが精度の低い点雲を結合する新しいデータ融合アルゴリズムを提案する。
我々は複数の3次元物体検出法を訓練し、核融合戦略が検出器の性能を継続的に改善することを示す。
論文 参考訳(メタデータ) (2021-11-08T19:29:59Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。