論文の概要: Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics
- arxiv url: http://arxiv.org/abs/2303.04302v1
- Date: Wed, 8 Mar 2023 00:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:26:10.003427
- Title: Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics
- Title(参考訳): 自動運転車とadaのカメラレーダ認識:概念、データセット、メトリクス
- Authors: Felipe Manfio Barbosa, Fernando Santos Os\'orio
- Abstract要約: 本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main paths towards the reduction of traffic accidents is the
increase in vehicle safety through driver assistance systems or even systems
with a complete level of autonomy. In these types of systems, tasks such as
obstacle detection and segmentation, especially the Deep Learning-based ones,
play a fundamental role in scene understanding for correct and safe navigation.
Besides that, the wide variety of sensors in vehicles nowadays provides a rich
set of alternatives for improvement in the robustness of perception in
challenging situations, such as navigation under lighting and weather adverse
conditions. Despite the current focus given to the subject, the literature
lacks studies on radar-based and radar-camera fusion-based perception. Hence,
this work aims to carry out a study on the current scenario of camera and
radar-based perception for ADAS and autonomous vehicles. Concepts and
characteristics related to both sensors, as well as to their fusion, are
presented. Additionally, we give an overview of the Deep Learning-based
detection and segmentation tasks, and the main datasets, metrics, challenges,
and open questions in vehicle perception.
- Abstract(参考訳): 交通事故の低減に向けた主要な道の1つは、運転支援システムや完全な自律性を持つシステムによる車両の安全性の向上である。
このようなシステムでは、障害物検出やセグメンテーション、特にディープラーニングに基づくタスクは、正しい安全なナビゲーションのためのシーン理解において基本的な役割を果たす。
さらに、近年の車両における多様なセンサーは、照明下のナビゲーションや天候の悪条件といった困難な状況における認識の堅牢性を改善するための、豊富な代替手段を提供している。
現在の主題に焦点が当てられているにもかかわらず、この文献はレーダーベースおよびレーダーカメラ融合に基づく知覚の研究を欠いている。
したがって、この研究は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことを目的としている。
両センサと融合に関する概念と特性について述べる。
さらに、深層学習に基づく検出とセグメント化タスクと、車両知覚における主要なデータセット、メトリクス、課題、オープン質問の概要を示す。
関連論文リスト
- Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques [0.0]
このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
論文 参考訳(メタデータ) (2024-11-15T19:11:58Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review [7.835577409160127]
本稿では,物体検出とセマンティックセグメンテーションに関連する知覚タスクについて概説する。
レビューでは,「なぜフューズするか」,「何をフューズすべきか」,「どこでフューズするか」,「どのようにフューズするか」などの質問に対処する。
論文 参考訳(メタデータ) (2023-04-20T15:48:50Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Object Detection in Autonomous Vehicles: Status and Open Challenges [4.226118870861363]
オブジェクト検出はコンピュータビジョンタスクであり、今日では多くの消費者向けアプリケーションにおいて不可欠な部分となっている。
深層学習に基づく物体検出器は、これらの物体をリアルタイムで発見し、位置づけする上で重要な役割を果たす。
本稿では、物体検出器の最先端と、自動運転車への統合に向けたオープンな課題について論じる。
論文 参考訳(メタデータ) (2022-01-19T16:45:16Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Road obstacles positional and dynamic features extraction combining
object detection, stereo disparity maps and optical flow data [0.0]
ナビゲーション目的の視覚認識システムが障害を特定することは重要である。
本稿では,障害物の同定とクラス,位置,深さ,動き情報の抽出について述べる。
論文 参考訳(メタデータ) (2020-06-24T19:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。