論文の概要: Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion
- arxiv url: http://arxiv.org/abs/2307.16532v2
- Date: Mon, 13 Nov 2023 09:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 20:49:12.773432
- Title: Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion
- Title(参考訳): echoes beyond points:マルチモダリティ融合における生のレーダーデータのパワーを解き放つ
- Authors: Yang Liu, Feng Wang, Naiyan Wang, Zhaoxiang Zhang
- Abstract要約: 本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
- 参考スコア(独自算出の注目度): 74.84019379368807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar is ubiquitous in autonomous driving systems due to its low cost and
good adaptability to bad weather. Nevertheless, the radar detection performance
is usually inferior because its point cloud is sparse and not accurate due to
the poor azimuth and elevation resolution. Moreover, point cloud generation
algorithms already drop weak signals to reduce the false targets which may be
suboptimal for the use of deep fusion. In this paper, we propose a novel method
named EchoFusion to skip the existing radar signal processing pipeline and then
incorporate the radar raw data with other sensors. Specifically, we first
generate the Bird's Eye View (BEV) queries and then take corresponding spectrum
features from radar to fuse with other sensors. By this approach, our method
could utilize both rich and lossless distance and speed clues from radar echoes
and rich semantic clues from images, making our method surpass all existing
methods on the RADIal dataset, and approach the performance of LiDAR. The code
will be released on https://github.com/tusen-ai/EchoFusion.
- Abstract(参考訳): Radarは、低コストで悪天候に適応できるため、自動運転システムではユビキタスである。
それでも、レーダー検出性能は、点雲が狭く、方位や高度の解像度が低いため正確ではないため、通常劣っている。
さらに、点雲生成アルゴリズムは、深層融合の使用に最適な偽ターゲットを減らすために、既に弱い信号を落としている。
本稿では,既存のレーダ信号処理パイプラインをスキップし,レーダ生データを他のセンサに組み込む,エコーフュージョンという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
提案手法は,レーダエコーからのリッチ・ロスレス距離と速度手がかりと画像からのリッチ・セマンティック手がかりの両方を利用して,RADIalデータセット上の既存手法を全て越え,LiDARの性能にアプローチすることができる。
コードはhttps://github.com/tusen-ai/EchoFusion.comでリリースされる。
関連論文リスト
- TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Timely Fusion of Surround Radar/Lidar for Object Detection in Autonomous
Driving Systems [9.859369318359564]
レーダーとライダーセンサーのデータは、その補完的な利点を十分に活用し、周囲をより正確に再現することができる。
既存のレーダ/リダ融合法は、サラウンドレーダの低周波で動作する必要がある。
本稿では,Radar/Lidar周辺を高速なLidarのみに制限された作業周波数でヒューズする手法を開発した。
論文 参考訳(メタデータ) (2023-09-09T14:22:12Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。