論文の概要: RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects
- arxiv url: http://arxiv.org/abs/2007.14366v1
- Date: Tue, 28 Jul 2020 17:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 02:27:25.697948
- Title: RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects
- Title(参考訳): RadarNet: 動的オブジェクトのロバスト知覚のための爆発的レーダー
- Authors: Bin Yang, Runsheng Guo, Ming Liang, Sergio Casas, Raquel Urtasun
- Abstract要約: 我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
- 参考スコア(独自算出の注目度): 73.80316195652493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We tackle the problem of exploiting Radar for perception in the context of
self-driving as Radar provides complementary information to other sensors such
as LiDAR or cameras in the form of Doppler velocity. The main challenges of
using Radar are the noise and measurement ambiguities which have been a
struggle for existing simple input or output fusion methods. To better address
this, we propose a new solution that exploits both LiDAR and Radar sensors for
perception. Our approach, dubbed RadarNet, features a voxel-based early fusion
and an attention-based late fusion, which learn from data to exploit both
geometric and dynamic information of Radar data. RadarNet achieves
state-of-the-art results on two large-scale real-world datasets in the tasks of
object detection and velocity estimation. We further show that exploiting Radar
improves the perception capabilities of detecting faraway objects and
understanding the motion of dynamic objects.
- Abstract(参考訳): Radarは、LiDARやカメラなどの他のセンサーに、ドップラー速度の形で補完情報を提供するので、自動運転の文脈における認識のためにRadarを利用するという課題に対処する。
Radarを使う主な課題はノイズと測定の曖昧さであり、既存の単純な入力や出力の融合法で苦労してきた。
そこで本研究では,LiDARセンサとRadarセンサを併用した新しい手法を提案する。
RadarNetと呼ばれる我々のアプローチは、Voxelベースの早期融合と、Radarデータの幾何学的情報と動的情報の両方を活用するためにデータから学習する注意ベースの後期融合を特徴としている。
RadarNetは、オブジェクト検出と速度推定のタスクにおいて、2つの大規模実世界のデータセットの最先端結果を達成する。
さらに,レーダーの活用により,遠隔物体の検出や動的物体の動きの理解が向上することを示す。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Radars for Autonomous Driving: A Review of Deep Learning Methods and
Challenges [0.021665899581403605]
Radarは、自動運転車に使用される知覚センサーのスイートの重要なコンポーネントである。
低解像度、疎度、乱雑、高い不確実性、優れたデータセットの欠如などが特徴である。
現在のレーダーモデルは、レーダーデータに比較的弱い光学的特徴に焦点を当てたライダーや視覚モデルの影響を受けやすい。
論文 参考訳(メタデータ) (2023-06-15T17:37:52Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。