論文の概要: RTNH+: Enhanced 4D Radar Object Detection Network using Combined
CFAR-based Two-level Preprocessing and Vertical Encoding
- arxiv url: http://arxiv.org/abs/2310.17659v1
- Date: Thu, 19 Oct 2023 06:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 14:14:22.464336
- Title: RTNH+: Enhanced 4D Radar Object Detection Network using Combined
CFAR-based Two-level Preprocessing and Vertical Encoding
- Title(参考訳): RTNH+:CFARによる2段階前処理と垂直符号化を組み合わせた4次元レーダ物体検出ネットワーク
- Authors: Seung-Hyun Kong, Dong-Hee Paek, Sangjae Cho
- Abstract要約: RTNH+は4Dレーダオブジェクト検出ネットワークであるRTNHの拡張版である。
RTNH+は10.14%,$AP_3DIoU=0.3$,$AP_3DIoU=0.5$で16.12%の大幅な性能向上を実現している。
- 参考スコア(独自算出の注目度): 8.017543518311196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Four-dimensional (4D) Radar is a useful sensor for 3D object detection and
the relative radial speed estimation of surrounding objects under various
weather conditions. However, since Radar measurements are corrupted with
invalid components such as noise, interference, and clutter, it is necessary to
employ a preprocessing algorithm before the 3D object detection with neural
networks. In this paper, we propose RTNH+ that is an enhanced version of RTNH,
a 4D Radar object detection network, by two novel algorithms. The first
algorithm is the combined constant false alarm rate (CFAR)-based two-level
preprocessing (CCTP) algorithm that generates two filtered measurements of
different characteristics using the same 4D Radar measurements, which can
enrich the information of the input to the 4D Radar object detection network.
The second is the vertical encoding (VE) algorithm that effectively encodes
vertical features of the road objects from the CCTP outputs. We provide details
of the RTNH+, and demonstrate that RTNH+ achieves significant performance
improvement of 10.14\% in ${{AP}_{3D}^{IoU=0.3}}$ and 16.12\% in
${{AP}_{3D}^{IoU=0.5}}$ over RTNH.
- Abstract(参考訳): 4次元レーダー(4d radar)は、様々な気象条件下での3次元物体検出および周辺物体の相対ラジアル速度推定に有用なセンサである。
しかし、レーダー計測はノイズ、干渉、クラッタなどの不正な成分で分解されるため、ニューラルネットワークによる3次元物体検出の前に前処理アルゴリズムを用いる必要がある。
本稿では,2つの新しいアルゴリズムによる4次元レーダ物体検出ネットワークRTNHの強化版であるRTNH+を提案する。
第1のアルゴリズムは、cfar(constant false alarm rate)ベースの2レベルプリプロセッシング(cctp)アルゴリズムであり、同じ4次元レーダー計測を用いて異なる特性の2つのフィルタ計測を生成し、4次元レーダー物体検出ネットワークへの入力の情報を強化する。
2つ目は、cctp出力からロードオブジェクトの垂直特性を効果的にエンコードするvertical encoding (ve)アルゴリズムである。
我々はRTNH+の詳細を述べ、RTNH+が${AP}_{3D}^{IoU=0.3}}$と${AP}_{3D}^{IoU=0.5}}$で10.14\%の大幅な性能向上を達成することを示した。
関連論文リスト
- SpikingRTNH: Spiking Neural Network for 4D Radar Object Detection [6.636342419996716]
SpikingRTNHは、4D Radarデータを用いた3Dオブジェクト検出のための最初のスパイクニューラルネットワーク(SNN)である。
我々は,高密度から低密度の点雲を逐次処理する生物トップダウン推論(BTI)を導入する。
その結果、自律運転システムにおけるエネルギー効率のよい4Dレーダによる物体検出のためのSNNの実現可能性を確立した。
論文 参考訳(メタデータ) (2025-01-31T07:33:30Z) - GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - Efficient 4D Radar Data Auto-labeling Method using LiDAR-based Object Detection Network [5.405156980077946]
既存の4Dレーダーデータセットには十分なセンサーデータとラベルがない。
これらの問題に対処するために,K-Radarデータセットにおける4次元レーダテンソル(4DRT)の自動ラベリング手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T04:28:06Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。