論文の概要: MmWave Radar and Vision Fusion based Object Detection for Autonomous
Driving: A Survey
- arxiv url: http://arxiv.org/abs/2108.03004v1
- Date: Fri, 6 Aug 2021 08:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:30:41.638879
- Title: MmWave Radar and Vision Fusion based Object Detection for Autonomous
Driving: A Survey
- Title(参考訳): MmWaveレーダとビジョンフュージョンを用いた自律走行物体検出:サーベイ
- Authors: Zhiqing Wei, Fengkai Zhang, Shuo Chang, Yangyang Liu, Huici Wu,
Zhiyong Feng
- Abstract要約: ミリ波レーダーと視覚融合は、正確な障害物検出のための主流のソリューションである。
本稿では,mmWaveレーダと視覚融合による障害物検出手法に関する詳細な調査を行う。
- 参考スコア(独自算出の注目度): 15.316597644398188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With autonomous driving developing in a booming stage, accurate object
detection in complex scenarios attract wide attention to ensure the safety of
autonomous driving. Millimeter wave (mmWave) radar and vision fusion is a
mainstream solution for accurate obstacle detection. This article presents a
detailed survey on mmWave radar and vision fusion based obstacle detection
methods. Firstly, we introduce the tasks, evaluation criteria and datasets of
object detection for autonomous driving. Then, the process of mmWave radar and
vision fusion is divided into three parts: sensor deployment, sensor
calibration and sensor fusion, which are reviewed comprehensively. Especially,
we classify the fusion methods into data level, decision level and feature
level fusion methods. Besides, we introduce the fusion of lidar and vision in
autonomous driving in the aspects of obstacle detection, object classification
and road segmentation, which is promising in the future. Finally, we summarize
this article.
- Abstract(参考訳): 自動運転が急速に発展する中、複雑なシナリオにおける正確な物体検出は、自動運転の安全性を確保するために広く注目を集めている。
ミリ波レーダーと視覚融合は、正確な障害物検出のための主流のソリューションである。
本稿では,mmWaveレーダと視覚融合による障害物検出手法に関する詳細な調査を行う。
まず,自律運転における物体検出のタスク,評価基準,データセットを紹介する。
次に、mmwaveレーダとvision fusionのプロセスについて、センサ配置、センサキャリブレーション、センサフュージョンの3部に分けて総括的に検討する。
特に,融合法をデータレベル,決定レベル,特徴レベルの融合法に分類する。
さらに,障害物検出,物体分類,道路セグメント化の両面において,ライダーの融合と自律運転のビジョンを導入し,将来有望である。
最後に、この記事をまとめる。
関連論文リスト
- A Survey of Deep Learning Based Radar and Vision Fusion for 3D Object Detection in Autonomous Driving [9.962648957398923]
本稿では,自律運転における3次元物体検出のためのディープラーニング手法に基づくレーダビジョン(RV)融合の包括的調査に着目する。
現在最も有望な融合戦略として、これらの3次元境界ボックス予測とBEVベースのアプローチを含む、エンドツーエンドの融合手法のより深い分類を提供する。
論文 参考訳(メタデータ) (2024-06-02T11:37:50Z) - Exploring Adversarial Robustness of LiDAR-Camera Fusion Model in
Autonomous Driving [17.618527727914163]
本研究では,LiDAR-Camera融合モデルの3次元物体検出における対角的ロバスト性を評価する。
そこで本研究では,車上における物理的制約点数に制限を加えるだけで,融合モデルにより車体を検出不能にすることができる攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-03T17:48:40Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review [7.835577409160127]
本稿では,物体検出とセマンティックセグメンテーションに関連する知覚タスクについて概説する。
レビューでは,「なぜフューズするか」,「何をフューズすべきか」,「どこでフューズするか」,「どのようにフューズするか」などの質問に対処する。
論文 参考訳(メタデータ) (2023-04-20T15:48:50Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [10.913958563906931]
自動運転車には、堅牢で正確な環境認識を行うための一連のセンサーが備わっている。
センサーの数や種類が増加し続けており、それらを組み合わせることで知覚を向上させることが自然のトレンドになりつつある。
この調査では、複数のセンサデータソースを利用する、最近の核融合に基づく3D検出ディープラーニングモデルについてレビューする。
論文 参考訳(メタデータ) (2021-06-24T02:52:12Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。