論文の概要: Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion
- arxiv url: http://arxiv.org/abs/2307.16532v2
- Date: Mon, 13 Nov 2023 09:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 20:49:12.773432
- Title: Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion
- Title(参考訳): echoes beyond points:マルチモダリティ融合における生のレーダーデータのパワーを解き放つ
- Authors: Yang Liu, Feng Wang, Naiyan Wang, Zhaoxiang Zhang
- Abstract要約: 本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
- 参考スコア(独自算出の注目度): 74.84019379368807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar is ubiquitous in autonomous driving systems due to its low cost and
good adaptability to bad weather. Nevertheless, the radar detection performance
is usually inferior because its point cloud is sparse and not accurate due to
the poor azimuth and elevation resolution. Moreover, point cloud generation
algorithms already drop weak signals to reduce the false targets which may be
suboptimal for the use of deep fusion. In this paper, we propose a novel method
named EchoFusion to skip the existing radar signal processing pipeline and then
incorporate the radar raw data with other sensors. Specifically, we first
generate the Bird's Eye View (BEV) queries and then take corresponding spectrum
features from radar to fuse with other sensors. By this approach, our method
could utilize both rich and lossless distance and speed clues from radar echoes
and rich semantic clues from images, making our method surpass all existing
methods on the RADIal dataset, and approach the performance of LiDAR. The code
will be released on https://github.com/tusen-ai/EchoFusion.
- Abstract(参考訳): Radarは、低コストで悪天候に適応できるため、自動運転システムではユビキタスである。
それでも、レーダー検出性能は、点雲が狭く、方位や高度の解像度が低いため正確ではないため、通常劣っている。
さらに、点雲生成アルゴリズムは、深層融合の使用に最適な偽ターゲットを減らすために、既に弱い信号を落としている。
本稿では,既存のレーダ信号処理パイプラインをスキップし,レーダ生データを他のセンサに組み込む,エコーフュージョンという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
提案手法は,レーダエコーからのリッチ・ロスレス距離と速度手がかりと画像からのリッチ・セマンティック手がかりの両方を利用して,RADIalデータセット上の既存手法を全て越え,LiDARの性能にアプローチすることができる。
コードはhttps://github.com/tusen-ai/EchoFusion.comでリリースされる。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Diffusion-Based Point Cloud Super-Resolution for mmWave Radar Data [8.552647576661174]
ミリ波レーダセンサは、環境条件下では安定した性能を維持している。
レーダー点雲は比較的希薄で、巨大なゴーストポイントを含んでいる。
本稿では3次元ミリ波レーダデータに対する新しい点雲超解像法,Radar-diffusionを提案する。
論文 参考訳(メタデータ) (2024-04-09T04:41:05Z) - Timely Fusion of Surround Radar/Lidar for Object Detection in Autonomous Driving Systems [13.998883144668941]
レーダーとライダーセンサーのデータは、その補完的な利点を十分に活用し、周囲をより正確に再現することができる。
既存のレーダ/リダ融合法は、サラウンドレーダの低周波で動作する必要がある。
本稿では,Radar/Lidar周辺を高速なLidarのみに制限された作業周波数でヒューズする手法を開発した。
論文 参考訳(メタデータ) (2023-09-09T14:22:12Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。