論文の概要: 4D mmWave Radar for Sensing Enhancement in Adverse Environments: Advances and Challenges
- arxiv url: http://arxiv.org/abs/2503.24091v2
- Date: Tue, 29 Apr 2025 13:18:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:17:25.720886
- Title: 4D mmWave Radar for Sensing Enhancement in Adverse Environments: Advances and Challenges
- Title(参考訳): 逆環境における4Dmm波レーダ -その進歩と課題-
- Authors: Xiangyuan Peng, Miao Tang, Huawei Sun, Kay Bierzynski, Lorenzo Servadei, Robert Wille,
- Abstract要約: インテリジェントな輸送システムは正確で信頼性の高いセンシングを必要とする。
4D mmWave レーダーは3次元点雲と速度測定を提供するだけでなく、挑戦的な条件下で堅牢性も維持する。
- 参考スコア(独自算出の注目度): 3.1212590312985986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent transportation systems require accurate and reliable sensing. However, adverse environments, such as rain, snow, and fog, can significantly degrade the performance of LiDAR and cameras. In contrast, 4D mmWave radar not only provides 3D point clouds and velocity measurements but also maintains robustness in challenging conditions. Recently, research on 4D mmWave radar under adverse environments has been growing, but a comprehensive review is still lacking. To bridge this gap, this work reviews the current research on 4D mmWave radar under adverse environments. First, we present an overview of existing 4D mmWave radar datasets encompassing diverse weather and lighting scenarios. Subsequently, we analyze existing learning-based methods leveraging 4D mmWave radar to enhance performance according to different adverse conditions. Finally, the challenges and potential future directions are discussed for advancing 4D mmWave radar applications in harsh environments. To the best of our knowledge, this is the first review specifically concentrating on 4D mmWave radar in adverse environments. The related studies are listed at: https://github.com/XiangyPeng/4D-mmWave-Radar-in-Adverse-Environments.
- Abstract(参考訳): インテリジェントな輸送システムは正確で信頼性の高いセンシングを必要とする。
しかし、雨、雪、霧などの悪環境は、LiDARやカメラの性能を著しく低下させる可能性がある。
対照的に、4D mmWave レーダーは3次元点雲と速度測定を提供するだけでなく、挑戦的な条件下で堅牢性も維持する。
近年, 有害環境下での4Dmm波レーダの研究が増加しているが, 網羅的レビューは乏しい。
このギャップを埋めるために、この研究は、有害環境下での4D mmWaveレーダーに関する現在の研究をレビューする。
まず,気象・照明の多様なシナリオを含む既存の4D mmWaveレーダーデータセットの概要を紹介する。
次に, 4D mmWave レーダを応用した既存の学習手法を解析し, 異常条件に応じて性能を向上する。
最後に, 厳しい環境下での4DmmWaveレーダの適用に向けた課題と今後の方向性について考察する。
われわれの知る限りでは、これが4D mmWaveレーダーを悪環境に向けた最初のレビューだ。
関連する研究は、https://github.com/XiangyPeng/4D-mmWave-Radar-in-Adverse-Environmentsに記載されている。
関連論文リスト
- Depth-aware Fusion Method based on Image and 4D Radar Spectrum for 3D Object Detection [32.96725310200148]
3Dミリ波レーダーは、対象物に対して範囲、ドップラー、方位情報しか提供できない。
本稿では,これら2つの高相補的で費用効率のよいセンサ,4Dミリ波レーダ,カメラを活用する。
深度センサがない場合のレーダスペクトルから深度画像を生成するために,GANを用いたネットワークを提案する。
論文 参考訳(メタデータ) (2025-02-21T15:14:30Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Human Detection from 4D Radar Data in Low-Visibility Field Conditions [17.1888913327586]
現代の4Dイメージングレーダは、範囲、垂直角度、水平角度、ドップラー速度の寸法にわたってターゲット応答を提供する。
セマンティックセグメンテーションにこの4Dレーダモダリティを利用するCNNアーキテクチャTMVA4Dを提案する。
このデータセット上でTMVA4Dを用いてmIoUスコア78.2%、mDiceスコア86.1%を達成し、背景と人物の2つのクラスで評価した。
論文 参考訳(メタデータ) (2024-04-08T08:53:54Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - mmBody Benchmark: 3D Body Reconstruction Dataset and Analysis for
Millimeter Wave Radar [10.610455816814985]
ミリ波(mmWave)レーダーは、煙、雨、雪、照明の悪さといった悪環境でも使えるため、人気が高まっている。
以前の研究では、ノイズやスパースなmmWaveレーダ信号から3D骨格やメッシュを再構築する可能性を探っている。
このデータセットは、同期および校正されたmmWaveレーダーポイント雲と、異なるシーンにおけるRGB(D)イメージと、シーン内の人間のためのスケルトン/メシュアノテーションで構成されている。
論文 参考訳(メタデータ) (2022-09-12T08:00:31Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。