論文の概要: Efficient 4D Radar Data Auto-labeling Method using LiDAR-based Object Detection Network
- arxiv url: http://arxiv.org/abs/2407.04709v1
- Date: Mon, 13 May 2024 04:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 16:25:52.694890
- Title: Efficient 4D Radar Data Auto-labeling Method using LiDAR-based Object Detection Network
- Title(参考訳): LiDARを用いたオブジェクト検出ネットワークを用いた高能率4次元レーダデータ自動ラベル法
- Authors: Min-Hyeok Sun, Dong-Hee Paek, Seung-Hyun Song, Seung-Hyun Kong,
- Abstract要約: 既存の4Dレーダーデータセットには十分なセンサーデータとラベルがない。
これらの問題に対処するために,K-Radarデータセットにおける4次元レーダテンソル(4DRT)の自動ラベリング手法を提案する。
- 参考スコア(独自算出の注目度): 5.405156980077946
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Focusing on the strength of 4D (4-Dimensional) radar, research about robust 3D object detection networks in adverse weather conditions has gained attention. To train such networks, datasets that contain large amounts of 4D radar data and ground truth labels are essential. However, the existing 4D radar datasets (e.g., K-Radar) lack sufficient sensor data and labels, which hinders the advancement in this research domain. Furthermore, enlarging the 4D radar datasets requires a time-consuming and expensive manual labeling process. To address these issues, we propose the auto-labeling method of 4D radar tensor (4DRT) in the K-Radar dataset. The proposed method initially trains a LiDAR-based object detection network (LODN) using calibrated LiDAR point cloud (LPC). The trained LODN then automatically generates ground truth labels (i.e., auto-labels, ALs) of the K-Radar train dataset without human intervention. The generated ALs are used to train the 4D radar-based object detection network (4DRODN), Radar Tensor Network with Height (RTNH). The experimental results demonstrate that RTNH trained with ALs has achieved a similar detection performance to the original RTNH which is trained with manually annotated ground truth labels, thereby verifying the effectiveness of the proposed auto-labeling method. All relevant codes will be soon available at the following GitHub project: https://github.com/kaist-avelab/K-Radar
- Abstract(参考訳): 4次元レーダーの強度に着目し, 悪天候下でのロバストな3次元物体検出ネットワークの研究が注目されている。
このようなネットワークをトレーニングするためには、大量の4Dレーダデータと地上の真理ラベルを含むデータセットが不可欠である。
しかし、既存の4Dレーダーデータセット(例えばK-Radar)には十分なセンサーデータとラベルが欠けており、この研究領域の進歩を妨げる。
さらに、4Dレーダデータセットを拡大するには、時間と費用のかかる手動ラベリングプロセスが必要になる。
これらの問題に対処するために,K-Radarデータセットにおける4次元レーダテンソル(4DRT)の自動ラベリング手法を提案する。
提案手法は,LiDAR点雲 (LPC) を用いたオブジェクト検出ネットワーク (LODN) を訓練する。
訓練されたLODNは、人間の介入なしにK-Radarの列車データセットの地上の真理ラベル(オートラベル、AL)を自動的に生成する。
生成されたALは、4Dレーダーによる物体検出ネットワーク(4DRODN)、Radar Tensor Network with Height(RTNH)のトレーニングに使用される。
実験の結果,ALsでトレーニングしたRTNHは,手動で注釈付き真実ラベルをトレーニングしたオリジナルのRTNHと類似した検出性能を達成し,提案手法の有効性を検証した。
関連するすべてのコードは、次のGitHubプロジェクトですぐに利用可能になる。
関連論文リスト
- RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Human Detection from 4D Radar Data in Low-Visibility Field Conditions [17.1888913327586]
現代の4Dイメージングレーダは、範囲、垂直角度、水平角度、ドップラー速度の寸法にわたってターゲット応答を提供する。
セマンティックセグメンテーションにこの4Dレーダモダリティを利用するCNNアーキテクチャTMVA4Dを提案する。
このデータセット上でTMVA4Dを用いてmIoUスコア78.2%、mDiceスコア86.1%を達成し、背景と人物の2つのクラスで評価した。
論文 参考訳(メタデータ) (2024-04-08T08:53:54Z) - RTNH+: Enhanced 4D Radar Object Detection Network using Combined
CFAR-based Two-level Preprocessing and Vertical Encoding [8.017543518311196]
RTNH+は4Dレーダオブジェクト検出ネットワークであるRTNHの拡張版である。
RTNH+は10.14%,$AP_3DIoU=0.3$,$AP_3DIoU=0.5$で16.12%の大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-10-19T06:45:19Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Self-Supervised Person Detection in 2D Range Data using a Calibrated
Camera [83.31666463259849]
2次元LiDARに基づく人検出器のトレーニングラベル(擬似ラベル)を自動生成する手法を提案する。
擬似ラベルで訓練または微調整された自己監視検出器が,手動アノテーションを用いて訓練された検出器を上回っていることを示した。
私達の方法は付加的な分類の努力なしで配置の間に人の探知器を改善する有効な方法です。
論文 参考訳(メタデータ) (2020-12-16T12:10:04Z) - Manual-Label Free 3D Detection via An Open-Source Simulator [50.74299948748722]
我々は、CARLAシミュレータを利用して、大量の自己ラベル付きトレーニングサンプルを生成する手動ラベルフリーな3D検出アルゴリズムを提案する。
ドメイン適応型VoxelNet(DA-VoxelNet)は、合成データから実際のシナリオへの分散ギャップを横断することができる。
実験の結果、提案されたDA 3D検出器は、KITTI評価セット上で76.66%と56.64%のmAPを達成することができた。
論文 参考訳(メタデータ) (2020-11-16T08:29:01Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。