論文の概要: Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets
- arxiv url: http://arxiv.org/abs/2012.01993v1
- Date: Thu, 3 Dec 2020 15:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:04:44.728556
- Title: Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets
- Title(参考訳): radar artifact labeling framework (ralf) データセットにおけるレーダ検出の可能性
- Authors: Simon T. Isele, Marcel P. Schilling, Fabian E. Klein, Sascha
Saralajew, J. Marius Zoellner
- Abstract要約: 粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
- 参考スコア(独自算出の注目度): 2.5899040911480187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research on localization and perception for Autonomous Driving is mainly
focused on camera and LiDAR datasets, rarely on radar data. Manually labeling
sparse radar point clouds is challenging. For a dataset generation, we propose
the cross sensor Radar Artifact Labeling Framework (RALF). Automatically
generated labels for automotive radar data help to cure radar shortcomings like
artifacts for the application of artificial intelligence. RALF provides
plausibility labels for radar raw detections, distinguishing between artifacts
and targets. The optical evaluation backbone consists of a generalized
monocular depth image estimation of surround view cameras plus LiDAR scans.
Modern car sensor sets of cameras and LiDAR allow to calibrate image-based
relative depth information in overlapping sensing areas. K-Nearest Neighbors
matching relates the optical perception point cloud with raw radar detections.
In parallel, a temporal tracking evaluation part considers the radar
detections' transient behavior. Based on the distance between matches,
respecting both sensor and model uncertainties, we propose a plausibility
rating of every radar detection. We validate the results by evaluating error
metrics on semi-manually labeled ground truth dataset of $3.28\cdot10^6$
points. Besides generating plausible radar detections, the framework enables
further labeled low-level radar signal datasets for applications of perception
and Autonomous Driving learning tasks.
- Abstract(参考訳): 自動運転のローカライズと認識に関する研究は、主にカメラとlidarデータセットに焦点を当てている。
スパースレーダポイントクラウドの手動ラベリングは難しい。
データセット生成のためのクロスセンサであるRadar Artifact Labeling Framework (RALF)を提案する。
自動生成された自動車レーダーデータのラベルは、人工知能の応用のためのアーティファクトのようなレーダーの欠点の解決に役立つ。
RALFは、レーダー生検のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
光学評価バックボーンは、サラウンドビューカメラとLiDARスキャンの一般化された単眼深度画像推定からなる。
現代の車載センサーセットとLiDARは、画像に基づく相対深度情報を重なり合う感知領域でキャリブレーションすることができる。
K-Nearest Neighborsマッチングは、光知覚点雲と生のレーダー検出を関連付ける。
並行して、時間追跡評価部は、レーダ検出の過渡行動を考慮する。
センサとモデルの不確実性の両方を尊重する一致距離に基づいて,レーダ検出毎の可視性評価を提案する。
3.28\cdot10^6$点の半自動ラベル付き基底真理データセットの誤差メトリクスを評価することにより、結果を検証する。
実用的なレーダ検出に加えて、このフレームワークは認識と自動運転学習タスクの応用のために、さらにラベル付き低レベルレーダ信号データセットを可能にする。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Bootstrapping Autonomous Driving Radars with Self-Supervised Learning [13.13679517730015]
レーダモデルの訓練は、大規模レーダデータの注釈付けのコストと難しさによって妨げられている。
本研究では,未ラベルのレーダデータを事前学習型レーダのみの埋め込みに活用して,自律型認識タスクを実現するための自己教師型学習フレームワークを提案する。
下流オブジェクト検出に使用する場合、提案するセルフスーパービジョンフレームワークが、最先端の教師付きベースラインの精度をmAPで5.8%向上できることを実証する。
論文 参考訳(メタデータ) (2023-12-07T18:38:39Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。