論文の概要: Raw High-Definition Radar for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2112.10646v1
- Date: Mon, 20 Dec 2021 16:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:53:00.005100
- Title: Raw High-Definition Radar for Multi-Task Learning
- Title(参考訳): マルチタスク学習のための高精細レーダ
- Authors: Julien Rebut, Arthur Ouaknine, Waqas Malik and Patrick P\'erez
- Abstract要約: 本研究では、レンジ・アジマス・ドップラー3Dテンソルの計算オーバーヘッドを解消する新しいHDレーダセンシングモデルFFT-RadNetを提案する。
FFT-RadNetは車両の検知と自由運転スペースの分断のために訓練されている。
どちらのタスクでも、最新のレーダベースのモデルと競合するが、計算量やメモリは少ない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With their robustness to adverse weather conditions and ability to measure
speeds, radar sensors have been part of the automotive landscape for more than
two decades. Recent progress toward High Definition (HD) Imaging radar has
driven the angular resolution below the degree, thus approaching laser scanning
performance. However, the amount of data a HD radar delivers and the
computational cost to estimate the angular positions remain a challenge. In
this paper, we propose a novel HD radar sensing model, FFT-RadNet, that
eliminates the overhead of computing the Range-Azimuth-Doppler 3D tensor,
learning instead to recover angles from a Range-Doppler spectrum. FFT-RadNet is
trained both to detect vehicles and to segment free driving space. On both
tasks, it competes with the most recent radar-based models while requiring less
compute and memory. Also, we collected and annotated 2-hour worth of raw data
from synchronized automotive-grade sensors (camera, laser, HD radar) in various
environments (city street, highway, countryside road). This unique dataset,
nick-named RADIal for "Radar, Lidar et al.", is available at
https://github.com/valeoai/RADIal.
- Abstract(参考訳): 悪天候に対する堅牢性と速度を測定する能力により、レーダーセンサーは20年以上にわたって自動車のランドスケープの一部となっている。
高分解能イメージングレーダへの最近の進歩は、角分解能を等級以下に低下させ、レーザー走査性能に近づいた。
しかし、hdレーダが出力するデータ量と角位置を推定する計算コストは依然として課題である。
本稿では,レンジ・ドップラー3次元テンソルの計算のオーバーヘッドをなくし,その代わりにレンジ・ドップラースペクトルから角度を復元する新しいhdレーダセンシングモデルであるfft-radnetを提案する。
FFT-RadNetは車両の検知と自由運転スペースの分断のために訓練されている。
どちらのタスクでも、最新のレーダーベースのモデルと競合するが、計算とメモリは少ない。
また,各種環境(都市道路,高速道路,田園部道路)において,自動車グレードセンサ(カメラ,レーザー,hdレーダ)から2時間分の生データを収集し,アノテートした。
Radar, Lidar et al."というニックネームのこのユニークなデータセットは、https://github.com/valeoai/RADIalで公開されている。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - RADIATE: A Radar Dataset for Automotive Perception in Bad Weather [13.084162751635239]
RADIATEには3時間のアノテートされたレーダー画像があり、合計で200万以上の俳優がいる。
様々な天候条件下で8種類の俳優をカバーしている。
RADIATEにはステレオ画像、32チャンネルのLiDAR、GPSデータもあり、他のアプリケーションに向けられている。
論文 参考訳(メタデータ) (2020-10-18T19:33:27Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。