論文の概要: Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review
- arxiv url: http://arxiv.org/abs/2304.10410v2
- Date: Wed, 23 Aug 2023 15:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 18:07:46.379664
- Title: Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review
- Title(参考訳): 自律走行における物体検出とセマンティックセグメンテーションのためのレーダー・カメラ融合
- Authors: Shanliang Yao, Runwei Guan, Xiaoyu Huang, Zhuoxiao Li, Xiangyu Sha,
Yong Yue, Eng Gee Lim, Hyungjoon Seo, Ka Lok Man, Xiaohui Zhu, Yutao Yue
- Abstract要約: 本稿では,物体検出とセマンティックセグメンテーションに関連する知覚タスクについて概説する。
レビューでは,「なぜフューズするか」,「何をフューズすべきか」,「どこでフューズするか」,「どのようにフューズするか」などの質問に対処する。
- 参考スコア(独自算出の注目度): 7.835577409160127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by deep learning techniques, perception technology in autonomous
driving has developed rapidly in recent years, enabling vehicles to accurately
detect and interpret surrounding environment for safe and efficient navigation.
To achieve accurate and robust perception capabilities, autonomous vehicles are
often equipped with multiple sensors, making sensor fusion a crucial part of
the perception system. Among these fused sensors, radars and cameras enable a
complementary and cost-effective perception of the surrounding environment
regardless of lighting and weather conditions. This review aims to provide a
comprehensive guideline for radar-camera fusion, particularly concentrating on
perception tasks related to object detection and semantic segmentation.Based on
the principles of the radar and camera sensors, we delve into the data
processing process and representations, followed by an in-depth analysis and
summary of radar-camera fusion datasets. In the review of methodologies in
radar-camera fusion, we address interrogative questions, including "why to
fuse", "what to fuse", "where to fuse", "when to fuse", and "how to fuse",
subsequently discussing various challenges and potential research directions
within this domain. To ease the retrieval and comparison of datasets and fusion
methods, we also provide an interactive website:
https://radar-camera-fusion.github.io.
- Abstract(参考訳): ディープラーニング技術によって、自動運転における認識技術は近年急速に発展し、安全かつ効率的なナビゲーションのために、車両が周囲の環境を正確に検出し、解釈できるようになった。
正確で堅牢な認識能力を達成するために、自動運転車は複数のセンサーを備えており、センサーの融合が知覚システムの重要な部分となっている。
これらの融合センサーのうち、レーダーやカメラは、照明や気象条件に関わらず、周囲の環境を補完的かつ費用対効果で認識することができる。
本稿では,レーダ・カメラ融合の総合的なガイドライン,特にオブジェクト検出とセマンティックセグメンテーションに関連する知覚タスクに焦点を当てることを目的として,レーダとカメラセンサの原理に基づいて,データ処理プロセスと表現を探索し,詳細な分析とレーダ・カメラ融合データセットの要約を行う。
レーダー・カメラ融合における方法論のレビューにおいて,我々は「なぜヒューズなのか」,「ヒューズに何」,「ヒューズにどこで」,「ヒューズにいつ」,「どのようにヒューズするか」といった疑問を提起し,その後,この分野における様々な課題と潜在的な研究方向について議論した。
データセットとフュージョンメソッドの検索と比較を容易にするために、インタラクティブなwebサイトhttps://radar-camera-fusion.github.ioも提供しています。
関連論文リスト
- Radar and Camera Fusion for Object Detection and Tracking: A Comprehensive Survey [26.812387135057584]
我々は、レーダーカメラ融合知覚の基礎原理、方法論、および応用に焦点を当てる。
本稿では,レーダーおよびカメラ技術の文脈における物体検出と追跡に関する研究トピックを網羅する詳細な分類法を提案する。
論文 参考訳(メタデータ) (2024-10-24T07:37:57Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - MmWave Radar and Vision Fusion based Object Detection for Autonomous
Driving: A Survey [15.316597644398188]
ミリ波レーダーと視覚融合は、正確な障害物検出のための主流のソリューションである。
本稿では,mmWaveレーダと視覚融合による障害物検出手法に関する詳細な調査を行う。
論文 参考訳(メタデータ) (2021-08-06T08:38:42Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。