論文の概要: Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks
- arxiv url: http://arxiv.org/abs/2310.19405v1
- Date: Mon, 30 Oct 2023 10:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 20:43:01.913539
- Title: Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks
- Title(参考訳): 効率的な畳み込みネットワークの設計による物体検出のためのレーダー・ライダー融合
- Authors: Farzeen Munir, Shoaib Azam, Tomasz Kucner, Ville Kyrki, Moongu Jeon
- Abstract要約: オブジェクト検出の強化のために,レーダデータとライダーデータを統合したデュアルブランチフレームワークを提案する。
この結果は、最先端の手法を1.89%ドルと2.61%ドルで上回り、好ましくない気象条件で上回っていることを示している。
- 参考スコア(独自算出の注目度): 18.17057711053028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection is a core component of perception systems, providing the ego
vehicle with information about its surroundings to ensure safe route planning.
While cameras and Lidar have significantly advanced perception systems, their
performance can be limited in adverse weather conditions. In contrast,
millimeter-wave technology enables radars to function effectively in such
conditions. However, relying solely on radar for building a perception system
doesn't fully capture the environment due to the data's sparse nature. To
address this, sensor fusion strategies have been introduced. We propose a
dual-branch framework to integrate radar and Lidar data for enhanced object
detection. The primary branch focuses on extracting radar features, while the
auxiliary branch extracts Lidar features. These are then combined using
additive attention. Subsequently, the integrated features are processed through
a novel Parallel Forked Structure (PFS) to manage scale variations. A region
proposal head is then utilized for object detection. We evaluated the
effectiveness of our proposed method on the Radiate dataset using COCO metrics.
The results show that it surpasses state-of-the-art methods by $1.89\%$ and
$2.61\%$ in favorable and adverse weather conditions, respectively. This
underscores the value of radar-Lidar fusion in achieving precise object
detection and localization, especially in challenging weather conditions.
- Abstract(参考訳): 物体検出は知覚システムのコアコンポーネントであり、ego車両に安全な経路計画を確保するために周囲に関する情報を提供する。
カメラとライダーは知覚システムを大幅に進歩させたが、その性能は悪天候下では制限される。
対照的にミリ波技術は、レーダーがそのような状況で効果的に機能することを可能にする。
しかし、知覚システムを構築するためにレーダーのみに頼ることは、データのばらばらな性質のため、環境を完全には捉えない。
これに対処するために、センサー融合戦略が導入された。
オブジェクト検出の強化のために,レーダとライダーデータを統合したデュアルブランチフレームワークを提案する。
一次分枝はレーダーの特徴の抽出に焦点を合わせ、補助分枝はライダーの特徴を抽出する。
これらを付加的注意を用いて組み合わせる。
その後、新たな並列分岐構造(pfs)を介して統合機能を処理し、スケール変動を管理する。
次に、領域提案ヘッドをオブジェクト検出に利用する。
本研究では,cocoメトリクスを用いた放射データセットにおける提案手法の有効性を評価した。
その結果、好適な気象条件と悪天候条件で、最先端の手法をそれぞれ1.89\%$と2.61\%$で上回った。
これはレーダーとライダーの融合が、特に厳しい気象条件において、正確な物体検出と局在化を達成する上での価値を強調する。
関連論文リスト
- MUFASA: Multi-View Fusion and Adaptation Network with Spatial Awareness for Radar Object Detection [3.1212590312985986]
レーダー点雲の空間は 正確な物体検出に 困難を生じさせます
本稿では,レーダポイント雲の包括的特徴抽出手法を提案する。
我々は、VoDデータセット上のレーダベース手法のmAPが50.24%である場合、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-08-01T13:52:18Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - Channel Boosting Feature Ensemble for Radar-based Object Detection [6.810856082577402]
レーダーベースの物体検出は、悪天候下でデプロイおよび使用される対応するセンサーモダリティを提供する。
提案手法の有効性をCOCO評価指標を用いて広く評価する。
論文 参考訳(メタデータ) (2021-01-10T12:20:58Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。