論文の概要: A Survey of Deep Learning Based Radar and Vision Fusion for 3D Object Detection in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2406.00714v1
- Date: Sun, 2 Jun 2024 11:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:46:38.719152
- Title: A Survey of Deep Learning Based Radar and Vision Fusion for 3D Object Detection in Autonomous Driving
- Title(参考訳): 自律走行における3次元物体検出のためのディープラーニングベースレーダとビジョンフュージョンの検討
- Authors: Di Wu, Feng Yang, Benlian Xu, Pan Liao, Bo Liu,
- Abstract要約: 本稿では,自律運転における3次元物体検出のためのディープラーニング手法に基づくレーダビジョン(RV)融合の包括的調査に着目する。
現在最も有望な融合戦略として、これらの3次元境界ボックス予測とBEVベースのアプローチを含む、エンドツーエンドの融合手法のより深い分類を提供する。
- 参考スコア(独自算出の注目度): 9.962648957398923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of autonomous driving technology, there is a growing need for enhanced safety and efficiency in the automatic environmental perception of vehicles during their operation. In modern vehicle setups, cameras and mmWave radar (radar), being the most extensively employed sensors, demonstrate complementary characteristics, inherently rendering them conducive to fusion and facilitating the achievement of both robust performance and cost-effectiveness. This paper focuses on a comprehensive survey of radar-vision (RV) fusion based on deep learning methods for 3D object detection in autonomous driving. We offer a comprehensive overview of each RV fusion category, specifically those employing region of interest (ROI) fusion and end-to-end fusion strategies. As the most promising fusion strategy at present, we provide a deeper classification of end-to-end fusion methods, including those 3D bounding box prediction based and BEV based approaches. Moreover, aligning with recent advancements, we delineate the latest information on 4D radar and its cutting-edge applications in autonomous vehicles (AVs). Finally, we present the possible future trends of RV fusion and summarize this paper.
- Abstract(参考訳): 自動運転技術の急速な進歩により、運転中の車両の自動環境認識における安全性と効率の向上の必要性が高まっている。
現代の車両では、カメラとmmWaveレーダー(レーダー)が最も広く使用されるセンサーであり、相補的な特性を示しており、本質的には融合に寄与し、堅牢な性能とコスト効率の両方の達成を促進する。
本稿では,自律運転における3次元物体検出のためのディープラーニング手法に基づくレーダビジョン(RV)融合の包括的調査に着目する。
本稿では,各RV融合カテゴリ,特に関心領域融合(ROI)とエンドツーエンド融合戦略を利用する分野について概観する。
現在最も有望な融合戦略として、これらの3次元境界ボックス予測とBEVベースのアプローチを含む、エンドツーエンドの融合手法のより深い分類を提供する。
さらに、最近の進歩に合わせて、4Dレーダの最新情報と、自動運転車(AV)における最先端の応用について述べる。
最後に, RV融合の今後の動向を概説し, 本論文を要約する。
関連論文リスト
- A Comprehensive Review of 3D Object Detection in Autonomous Driving: Technological Advances and Future Directions [11.071271817366739]
3次元物体認識は、自律運転システムの開発において重要な要素となっている。
本稿では,カメラベース,LiDARベース,核融合検出技術を中心に,従来の3次元物体検出手法を概説する。
本稿では、時間知覚、占有グリッド、エンドツーエンド学習フレームワークなどの精度向上手法を含む今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-08-28T01:08:33Z) - Cross-Domain Spatial Matching for Camera and Radar Sensor Data Fusion in Autonomous Vehicle Perception System [0.0]
本稿では,自律走行車認識システムにおける3次元物体検出のためのカメラとレーダーセンサの融合問題に対する新しいアプローチを提案する。
我々のアプローチは、ディープラーニングの最近の進歩に基づいており、両方のセンサーの強度を活用して物体検出性能を向上させる。
提案手法は単一センサ・ソリューションよりも優れた性能を実現し,他のトップレベルの融合手法と直接競合できることを示す。
論文 参考訳(メタデータ) (2024-04-25T12:04:31Z) - Exploring Adversarial Robustness of LiDAR-Camera Fusion Model in
Autonomous Driving [17.618527727914163]
本研究では,LiDAR-Camera融合モデルの3次元物体検出における対角的ロバスト性を評価する。
そこで本研究では,車上における物理的制約点数に制限を加えるだけで,融合モデルにより車体を検出不能にすることができる攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-03T17:48:40Z) - Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review [7.835577409160127]
本稿では,物体検出とセマンティックセグメンテーションに関連する知覚タスクについて概説する。
レビューでは,「なぜフューズするか」,「何をフューズすべきか」,「どこでフューズするか」,「どのようにフューズするか」などの質問に対処する。
論文 参考訳(メタデータ) (2023-04-20T15:48:50Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - MmWave Radar and Vision Fusion based Object Detection for Autonomous
Driving: A Survey [15.316597644398188]
ミリ波レーダーと視覚融合は、正確な障害物検出のための主流のソリューションである。
本稿では,mmWaveレーダと視覚融合による障害物検出手法に関する詳細な調査を行う。
論文 参考訳(メタデータ) (2021-08-06T08:38:42Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。