論文の概要: RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection System
- arxiv url: http://arxiv.org/abs/2211.06108v1
- Date: Fri, 11 Nov 2022 10:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:21:01.975928
- Title: RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection System
- Title(参考訳): RaLiBEV:アンカーボックス自由物体検出システムのためのレーダーとLiDARのBEV融合学習
- Authors: Yanlong Yang, Jianan Liu, Tao Huang, Qing-Long Han, Gang Ma and Bing
Zhu
- Abstract要約: レーダは、安価な価格で全ての気象条件で信頼できる知覚能力を提供できる唯一のセンサーである。
最近の最先端の研究は、レーダーとLiDARの融合が霧のような悪天候の堅牢な検出につながることを明らかにしている。
本稿では,アンカーボックスレス物体検出システムのための鳥眼ビュー(BEV)融合学習を提案する。
- 参考スコア(独自算出の注目度): 11.995550284641274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radar, the only sensor that could provide reliable perception capability in
all weather conditions at an affordable cost, has been widely accepted as a key
supplement to camera and LiDAR in modern advanced driver assistance systems
(ADAS) and autonomous driving systems. Recent state-of-the-art works reveal
that fusion of radar and LiDAR can lead to robust detection in adverse weather,
such as fog. However, these methods still suffer from low accuracy of bounding
box estimations. This paper proposes a bird's-eye view (BEV) fusion learning
for an anchor box-free object detection system, which uses the feature derived
from the radar range-azimuth heatmap and the LiDAR point cloud to estimate the
possible objects. Different label assignment strategies have been designed to
facilitate the consistency between the classification of foreground or
background anchor points and the corresponding bounding box regressions.
Furthermore, the performance of the proposed object detector can be further
enhanced by employing a novel interactive transformer module. We demonstrated
the superior performance of the proposed methods in this paper using the
recently published Oxford Radar RobotCar (ORR) dataset. We showed that the
accuracy of our system significantly outperforms the other state-of-the-art
methods by a large margin.
- Abstract(参考訳): レーダ(Radar)は、あらゆる気象条件で信頼性の高い認識能力を安価に提供できる唯一のセンサーであり、現代の先進運転支援システム(ADAS)や自律運転システムにおいて、カメラとLiDARの重要なサプリメントとして広く受け入れられている。
最近の最先端の研究は、レーダーとLiDARの融合が霧のような悪天候の堅牢な検出につながることを明らかにしている。
しかし、これらの手法は依然としてバウンディングボックス推定の精度が低い。
本稿では,レーダーレンジ方位熱マップとLiDAR点雲から推定した特徴を応用したアンカーボックスフリー物体検出システムのための鳥眼ビュー(BEV)融合学習を提案する。
異なるラベル割り当て戦略は、前景や背景アンカーポイントの分類と対応する境界ボックスの回帰との整合性を促進するように設計されている。
さらに、新しい対話型トランスモジュールを用いることで、提案したオブジェクト検出器の性能をさらに向上することができる。
本稿では,最近発表されたOxford Radar RobotCar(ORR)データセットを用いて提案手法の優れた性能を示す。
その結果,本システムの精度は,他の最先端手法よりも大幅に優れていた。
関連論文リスト
- LEROjD: Lidar Extended Radar-Only Object Detection [0.22870279047711525]
3+1Dイメージングレーダーセンサーは、ライダーに代わるコスト効率が高く、堅牢な代替手段を提供する。
ライダーは推論中に使用するべきではないが、レーダーのみの物体検出器の訓練を支援することができる。
我々は、ライダーからレーダードメインとレーダー専用物体検出器に知識を伝達する2つの戦略を探求する。
論文 参考訳(メタデータ) (2024-09-09T12:43:25Z) - MUFASA: Multi-View Fusion and Adaptation Network with Spatial Awareness for Radar Object Detection [3.1212590312985986]
レーダー点雲の空間は 正確な物体検出に 困難を生じさせます
本稿では,レーダポイント雲の包括的特徴抽出手法を提案する。
我々は、VoDデータセット上のレーダベース手法のmAPが50.24%である場合、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-08-01T13:52:18Z) - Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks [18.17057711053028]
オブジェクト検出の強化のために,レーダデータとライダーデータを統合したデュアルブランチフレームワークを提案する。
この結果は、最先端の手法を1.89%ドルと2.61%ドルで上回り、好ましくない気象条件で上回っていることを示している。
論文 参考訳(メタデータ) (2023-10-30T10:18:40Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。