論文の概要: Radar Enlighten the Dark: Enhancing Low-Visibility Perception for
Automated Vehicles with Camera-Radar Fusion
- arxiv url: http://arxiv.org/abs/2305.17318v1
- Date: Sat, 27 May 2023 00:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:22:10.411439
- Title: Radar Enlighten the Dark: Enhancing Low-Visibility Perception for
Automated Vehicles with Camera-Radar Fusion
- Title(参考訳): 暗く照らすレーダー:カメラとレーダーの融合による自動車の低視認性向上
- Authors: Can Cui, Yunsheng Ma, Juanwu Lu and Ziran Wang
- Abstract要約: 低視認性条件に対処するために,トランスフォーマーを用いた新しい3次元オブジェクト検出モデル"REDFormer"を提案する。
我々のモデルは、分類と検出精度で最先端(SOTA)モデルより優れている。
- 参考スコア(独自算出の注目度): 8.946655323517094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sensor fusion is a crucial augmentation technique for improving the accuracy
and reliability of perception systems for automated vehicles under diverse
driving conditions. However, adverse weather and low-light conditions remain
challenging, where sensor performance degrades significantly, exposing vehicle
safety to potential risks. Advanced sensors such as LiDARs can help mitigate
the issue but with extremely high marginal costs. In this paper, we propose a
novel transformer-based 3D object detection model "REDFormer" to tackle low
visibility conditions, exploiting the power of a more practical and
cost-effective solution by leveraging bird's-eye-view camera-radar fusion.
Using the nuScenes dataset with multi-radar point clouds, weather information,
and time-of-day data, our model outperforms state-of-the-art (SOTA) models on
classification and detection accuracy. Finally, we provide extensive ablation
studies of each model component on their contributions to address the
above-mentioned challenges. Particularly, it is shown in the experiments that
our model achieves a significant performance improvement over the baseline
model in low-visibility scenarios, specifically exhibiting a 31.31% increase in
rainy scenes and a 46.99% enhancement in nighttime scenes.The source code of
this study is publicly available.
- Abstract(参考訳): センサフュージョンは、様々な運転条件下での自動車の認識システムの精度と信頼性を向上させるための重要な拡張技術である。
しかし、悪天候と低照度環境は依然として困難であり、センサー性能は著しく低下し、車両の安全性が潜在的な危険にさらされている。
lidarのような高度なセンサーは問題を緩和するが、限界コストは非常に高い。
本稿では,バードズ・アイ・ビュー・カメラ・レーダー融合を利用して,より実用的で費用対効果の高いソリューションのパワーを活用し,視認性の低い3次元物体検出モデル「レッドフォーマ」を提案する。
マルチレーダ点雲,気象情報,日時データを用いたnuScenesデータセットを用いて,分類と検出精度に関する最新技術(SOTA)モデルを上回った。
最後に,上記の課題に対処すべく,各モデルコンポーネントの広範なアブレーション研究を行う。
特に,本モデルは,低視認性シナリオにおいてベースラインモデルよりも大幅に性能が向上し,特に雨シーンが31.31%,夜間シーンが46.99%向上していることを示した。
関連論文リスト
- NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative
Learning for Dynamic Driving Scenes [52.904913650645796]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Multi-Attention Fusion Drowsy Driving Detection Model [1.2043574473965317]
我々は,Multi-Attention Fusion Drowsy Driving Detection Model (MAF)と呼ばれる新しいアプローチを導入する。
提案モデルでは96.8%の運転覚醒検出精度が得られた。
論文 参考訳(メタデータ) (2023-12-28T14:53:32Z) - MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection [15.925365473140479]
4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:07Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - RadSegNet: A Reliable Approach to Radar Camera Fusion [7.407841890626661]
カメラとレーダーの融合システムは、あらゆる天候の信頼性の高い高品質な知覚にユニークな機会を提供する。
本稿では,独立した情報抽出の新たな設計思想を用いたRadSegNetを提案する。
最先端の手法と比較して、RadSegNetはAstyxを27%改善し、RADIATEを41.46%改善した。
論文 参考訳(メタデータ) (2022-08-08T00:09:16Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - End-to-end system for object detection from sub-sampled radar data [18.462990836437626]
本稿では,車載環境下で物体検出を行うために,サブサンプリングレーダデータを利用するエンドツーエンド信号処理パイプラインを提案する。
極端気象条件下での試料の20%を用いて再構成したレーダーデータに基づくロバスト検出を示す。
微調整セットで20%のサンプルレーダデータを生成し,AP50が1.1%,AP50が3%向上した。
論文 参考訳(メタデータ) (2022-03-08T08:02:33Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。