論文の概要: Road Boundary Detection Using 4D mmWave Radar for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2503.01930v1
- Date: Mon, 03 Mar 2025 01:53:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:09.274240
- Title: Road Boundary Detection Using 4D mmWave Radar for Autonomous Driving
- Title(参考訳): 4Dmm波レーダを用いた自律走行のための道路境界検出
- Authors: Yuyan Wu, Hae Young Noh,
- Abstract要約: 道路境界は、自動運転における安全なナビゲーションと効果的な経路計画にとって重要である。
伝統的に、自動運転における道路境界検出は、カメラとLiDARに依存している。
本稿では, 4D mmWave レーダーを用いた道路境界検出法である 4DRadarRBD を紹介する。
- 参考スコア(独自算出の注目度): 3.968760774958394
- License:
- Abstract: Detecting road boundaries, the static physical edges of the available driving area, is important for safe navigation and effective path planning in autonomous driving and advanced driver-assistance systems (ADAS). Traditionally, road boundary detection in autonomous driving relies on cameras and LiDAR. However, they are vulnerable to poor lighting conditions, such as nighttime and direct sunlight glare, or prohibitively expensive for low-end vehicles. To this end, this paper introduces 4DRadarRBD, the first road boundary detection method based on 4D mmWave radar which is cost-effective and robust in complex driving scenarios. The main idea is that road boundaries (e.g., fences, bushes, roadblocks), reflect millimeter waves, thus generating point cloud data for the radar. To overcome the challenge that the 4D mmWave radar point clouds contain many noisy points, we initially reduce noisy points via physical constraints for road boundaries and then segment the road boundary points from the noisy points by incorporating a distance-based loss which penalizes for falsely detecting the points far away from the actual road boundaries. In addition, we capture the temporal dynamics of point cloud sequences by utilizing each point's deviation from the vehicle motion-compensated road boundary detection result obtained from the previous frame, along with the spatial distribution of the point cloud for point-wise road boundary segmentation. We evaluated 4DRadarRBD through real-world driving tests and achieved a road boundary point segmentation accuracy of 93$\%$, with a median distance error of up to 0.023 m and an error reduction of 92.6$\%$ compared to the baseline model.
- Abstract(参考訳): 走行エリアの静的な物理的なエッジである道路境界の検出は、自律運転および高度運転支援システム(ADAS)における安全なナビゲーションと効果的な経路計画に重要である。
伝統的に、自動運転における道路境界検出は、カメラとLiDARに依存している。
しかし、夜間や直射日光などの照明条件に弱いか、ローエンド車には不当に高価である。
そこで本研究では,4D mmWave レーダーを用いた道路境界検出手法である 4DRadarRBD について述べる。
主な考え方は、道路の境界線(フェンス、茂み、道路ブロックなど)がミリ波を反射し、レーダーの点雲データを生成することである。
4D mmWave レーダー点雲には多くのノイズ点が含まれているという課題を克服するため,まず道路境界の物理的制約によりノイズ点を減らし,次に実際の道路境界から遠く離れた地点を誤検出するためにペナライズした距離に基づく損失を組み込むことで,ノイズ点から道路境界点を分割する。
さらに,前フレームから得られた移動補償道路境界検出結果から各点の偏差を利用して,点雲列の時間的ダイナミクスを把握し,点雲の空間分布をポイントワイド道路境界セグメンテーションに適用する。
実世界走行試験による4DRadarRBDの評価を行い, 道路境界点分割精度93$\%$, 平均距離0.023m, 誤差92.6$\%$をベースラインモデルと比較した。
関連論文リスト
- Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Pointillism: Accurate 3D bounding box estimation with multi-radars [6.59119432945925]
我々は、複数の空間的に分離されたレーダーからのデータと、これらの問題を緩和するための最適な分離を結合するシステムであるPointillismを紹介する。
本稿では,レーダのスパースデータ分布を明示的に設計した新しいディープラーニングアーキテクチャRP-netの設計を行い,高精度な3次元境界ボックス推定を実現する。
論文 参考訳(メタデータ) (2022-03-08T23:09:58Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - CP-loss: Connectivity-preserving Loss for Road Curb Detection in
Autonomous Driving with Aerial Images [10.300623192980753]
自動走行には道路停止検知が重要である。
現在の方法のほとんどは、カメラや3Dライダーなどの車両に搭載されたセンサーを使って、オンラインで道路の縁石を検出する。
本稿では,高分解能空中画像を用いて道路の縁石をオフラインで検出する。
論文 参考訳(メタデータ) (2021-07-26T01:36:58Z) - Radar Camera Fusion via Representation Learning in Autonomous Driving [4.278336455989584]
レーダーカメラ融合の成功の鍵は、正確なデータ関連付けです。
従来のルールに基づくアソシエーション手法は、難解なシナリオやコーナーケースの障害でパフォーマンスが低下するおそれがある。
本稿では,rad-camアソシエーションを深層表現学習を通じて解決し,機能レベルのインタラクションとグローバル推論を検討する。
論文 参考訳(メタデータ) (2021-03-14T01:32:03Z) - Holistic Grid Fusion Based Stop Line Estimation [5.5476621209686225]
交差点で前もって停止する場所を知ることは、車両の長手速度を制御する上で必須のパラメータである。
文献における既存の手法のほとんどは、カメラのみを使用して停止線を検出するが、通常は検出範囲の点で不十分である。
本稿では,ステレオカメラやライダーなどの融合多感データを入力として活用し,ニューラルネットワークアーキテクチャを慎重に設計し,停止線を検出する手法を提案する。
論文 参考訳(メタデータ) (2020-09-18T21:29:06Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。