論文の概要: RadarMP: Motion Perception for 4D mmWave Radar in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2511.12117v1
- Date: Sat, 15 Nov 2025 09:09:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.619328
- Title: RadarMP: Motion Perception for 4D mmWave Radar in Autonomous Driving
- Title(参考訳): RadarMP:自動運転における4次元ミリ波レーダの運動知覚
- Authors: Ruiqi Cheng, Huijun Di, Jian Li, Feng Liu, Wei Liang,
- Abstract要約: RadarMPは、2つの連続するフレームからの低レベルレーダエコー信号を用いた3次元映像の正確な映像知覚のための新しい手法である。
また,RadarMPは,様々な気象条件と照明条件にまたがって,信頼性の高い動作知覚を実現する。
- 参考スコア(独自算出の注目度): 13.045666013579732
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate 3D scene motion perception significantly enhances the safety and reliability of an autonomous driving system. Benefiting from its all-weather operational capability and unique perceptual properties, 4D mmWave radar has emerged as an essential component in advanced autonomous driving. However, sparse and noisy radar points often lead to imprecise motion perception, leaving autonomous vehicles with limited sensing capabilities when optical sensors degrade under adverse weather conditions. In this paper, we propose RadarMP, a novel method for precise 3D scene motion perception using low-level radar echo signals from two consecutive frames. Unlike existing methods that separate radar target detection and motion estimation, RadarMP jointly models both tasks in a unified architecture, enabling consistent radar point cloud generation and pointwise 3D scene flow prediction. Tailored to radar characteristics, we design specialized self-supervised loss functions guided by Doppler shifts and echo intensity, effectively supervising spatial and motion consistency without explicit annotations. Extensive experiments on the public dataset demonstrate that RadarMP achieves reliable motion perception across diverse weather and illumination conditions, outperforming radar-based decoupled motion perception pipelines and enhancing perception capabilities for full-scenario autonomous driving systems.
- Abstract(参考訳): 正確な3Dシーン動作知覚は、自律運転システムの安全性と信頼性を著しく向上させる。
4D mmWaveレーダーは、全天候の運用能力と独自の知覚特性から、先進的な自律運転において不可欠な要素として浮上している。
しかし、スパースとノイズの多いレーダーポイントは、しばしば不正確な動きの知覚を招き、悪天候下で光学センサーが劣化したときには、自動運転車に限られた感知能力が残される。
本稿では,2つの連続フレームからの低レベルレーダエコー信号を用いた3次元映像の高精度な動き知覚手法であるRadarMPを提案する。
レーダターゲット検出とモーション推定を分離する既存の方法とは異なり、RadarMPは統合アーキテクチャで両方のタスクを共同でモデル化し、一貫したレーダポイントクラウドの生成とポイントワイドな3Dシーンフロー予測を可能にする。
レーダ特性に基づいてドップラーシフトとエコー強度によって導かれる特殊な自己教師付き損失関数を設計し,明示的なアノテーションを伴わずに空間的・運動的一貫性を効果的に監視する。
公開データセットに関する大規模な実験により、RadarMPは様々な天候や照明条件、レーダーベースの非結合的な運動知覚パイプラインの性能、フルシナリオの自律走行システムに対する知覚能力の向上など、信頼性の高い運動知覚を実現することが示された。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection [15.925365473140479]
4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:07Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。