論文の概要: Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review
- arxiv url: http://arxiv.org/abs/2304.10410v1
- Date: Thu, 20 Apr 2023 15:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 12:35:03.400282
- Title: Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review
- Title(参考訳): 自律走行における物体検出とセマンティックセグメンテーションのためのレーダー・カメラ融合
- Authors: Shanliang Yao, Runwei Guan, Xiaoyu Huang, Zhuoxiao Li, Xiangyu Sha,
Yong Yue, Eng Gee Lim, Hyungjoon Seo, Ka Lok Man, Xiaohui Zhu, Yutao Yue
- Abstract要約: 本総説は,レーダーカメラ融合の包括的ガイドラインを提供することを目的としている。
レーダーとカメラセンサーの原理に基づいて、私たちはデータ処理プロセスと表現を掘り下げます。
我々は,「なぜ融合するのか」,「何を融合すべきか」,「どこで融合するか」,「なぜ融合するのか」,「どのように融合するか」といった疑問に対処する。
- 参考スコア(独自算出の注目度): 6.460770160072932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by deep learning techniques, perception technology in autonomous
driving has developed rapidly in recent years. To achieve accurate and robust
perception capabilities, autonomous vehicles are often equipped with multiple
sensors, making sensor fusion a crucial part of the perception system. Among
these fused sensors, radars and cameras enable a complementary and
cost-effective perception of the surrounding environment regardless of lighting
and weather conditions. This review aims to provide a comprehensive guideline
for radar-camera fusion, particularly concentrating on perception tasks related
to object detection and semantic segmentation. Based on the principles of the
radar and camera sensors, we delve into the data processing process and
representations, followed by an in-depth analysis and summary of radar-camera
fusion datasets. In the review of methodologies in radar-camera fusion, we
address interrogative questions, including "why to fuse", "what to fuse",
"where to fuse", "when to fuse", and "how to fuse", subsequently discussing
various challenges and potential research directions within this domain. To
ease the retrieval and comparison of datasets and fusion methods, we also
provide an interactive website:
https://XJTLU-VEC.github.io/Radar-Camera-Fusion.
- Abstract(参考訳): ディープラーニング技術によって、自動運転における認識技術は近年急速に発展している。
正確で堅牢な認識能力を達成するために、自動運転車は複数のセンサーを備えており、センサーの融合が知覚システムの重要な部分となっている。
これらの融合センサーのうち、レーダーやカメラは、照明や気象条件に関わらず、周囲の環境を補完的かつ費用対効果で認識することができる。
本稿では,レーダカメラ融合の包括的ガイドライン,特に物体検出とセマンティックセグメンテーションに関連する知覚タスクに焦点を当てることを目的としている。
レーダーとカメラセンサーの原理に基づいて、我々はデータ処理プロセスと表現を掘り下げ、その後、詳細な分析とレーダーカメラ融合データセットの要約を行う。
レーダー・カメラ融合における方法論のレビューにおいて,我々は「なぜヒューズなのか」,「ヒューズに何」,「ヒューズにどこで」,「ヒューズにいつ」,「どのようにヒューズするか」といった疑問を提起し,その後,この分野における様々な課題と潜在的な研究方向について議論した。
データセットとフュージョンメソッドの検索と比較を容易にするため、インタラクティブなWebサイトも提供する。
関連論文リスト
- Radar and Camera Fusion for Object Detection and Tracking: A Comprehensive Survey [26.812387135057584]
我々は、レーダーカメラ融合知覚の基礎原理、方法論、および応用に焦点を当てる。
本稿では,レーダーおよびカメラ技術の文脈における物体検出と追跡に関する研究トピックを網羅する詳細な分類法を提案する。
論文 参考訳(メタデータ) (2024-10-24T07:37:57Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - MmWave Radar and Vision Fusion based Object Detection for Autonomous
Driving: A Survey [15.316597644398188]
ミリ波レーダーと視覚融合は、正確な障害物検出のための主流のソリューションである。
本稿では,mmWaveレーダと視覚融合による障害物検出手法に関する詳細な調査を行う。
論文 参考訳(メタデータ) (2021-08-06T08:38:42Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。