論文の概要: Enhanced K-Radar: Optimal Density Reduction to Improve Detection
Performance and Accessibility of 4D Radar Tensor-based Object Detection
- arxiv url: http://arxiv.org/abs/2303.06342v1
- Date: Sat, 11 Mar 2023 08:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:38:57.621327
- Title: Enhanced K-Radar: Optimal Density Reduction to Improve Detection
Performance and Accessibility of 4D Radar Tensor-based Object Detection
- Title(参考訳): 拡張Kレーダ:4次元レーダテンソルを用いた物体検出における検出性能とアクセシビリティ向上のための最適密度低減
- Authors: Dong-Hee Paek, Seung-Hyun Kong, Kevin Tirta Wijaya
- Abstract要約: 4D Sparse Radar (4DSRT)を導入し、4D Radarデータに対するオフライン密度の低減による新しい表現を行い、生データサイズを大幅に削減した。
ニューラルネットワークをトレーニングするための最適化された開発キットも提供され、4DSRTの利用とともに17.1倍のトレーニング速度が向上する。
- 参考スコア(独自算出の注目度): 1.6832237384792461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown the superior robustness of four-dimensional (4D)
Radar-based three-dimensional (3D) object detection in adverse weather
conditions. However, processing 4D Radar data remains a challenge due to the
large data size, which require substantial amount of memory for computing and
storage. In previous work, an online density reduction is performed on the 4D
Radar Tensor (4DRT) to reduce the data size, in which the density reduction
level is chosen arbitrarily. However, the impact of density reduction on the
detection performance and memory consumption remains largely unknown. In this
paper, we aim to address this issue by conducting extensive hyperparamter
tuning on the density reduction level. Experimental results show that
increasing the density level from 0.01% to 50% of the original 4DRT density
level proportionally improves the detection performance, at a cost of memory
consumption. However, when the density level is increased beyond 5%, only the
memory consumption increases, while the detection performance oscillates below
the peak point. In addition to the optimized density hyperparameter, we also
introduce 4D Sparse Radar Tensor (4DSRT), a new representation for 4D Radar
data with offline density reduction, leading to a significantly reduced raw
data size. An optimized development kit for training the neural networks is
also provided, which along with the utilization of 4DSRT, improves training
speed by a factor of 17.1 compared to the state-of-the-art 4DRT-based neural
networks. All codes are available at: https://github.com/kaist-avelab/K-Radar.
- Abstract(参考訳): 近年の研究では、悪天候条件下での4次元レーダーによる3次元物体検出の優れた堅牢性を示している。
しかし、4D Radarのデータ処理は、計算とストレージに大量のメモリを必要とする巨大なデータサイズのため、依然として課題である。
先行研究では、4次元レーダーテンソル(4drt)上でオンライン密度低減を行い、密度低減レベルを任意に選択したデータサイズを低減する。
しかし, 密度低下が検出性能とメモリ消費に与える影響は明らかになっていない。
本稿では,密度低減レベルを広範に調整することにより,この問題に対処することを目的とする。
実験結果から,元の4DRT密度の0.01%から50%への密度上昇は,メモリ消費のコストで検出性能を比例的に向上させることが示された。
しかし、密度レベルが5%を超えるとメモリ消費だけが増加し、検出性能はピーク点以下に変動する。
4d sparse radar tensor (4dsrt) は4d sparse radarデータのオフライン密度低減のための新しい表現であり、生データサイズが大幅に削減される。
ニューラルネットワークをトレーニングするための最適化された開発キットも提供され、4DSRTの利用とともに、最先端の4DRTベースのニューラルネットワークと比較して17.1倍のトレーニング速度が向上する。
すべてのコードは、https://github.com/kaist-avelab/K-Radar.comで入手できる。
関連論文リスト
- RTNH+: Enhanced 4D Radar Object Detection Network using Combined
CFAR-based Two-level Preprocessing and Vertical Encoding [8.017543518311196]
RTNH+は4Dレーダオブジェクト検出ネットワークであるRTNHの拡張版である。
RTNH+は10.14%,$AP_3DIoU=0.3$,$AP_3DIoU=0.5$で16.12%の大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-10-19T06:45:19Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - LXL: LiDAR Excluded Lean 3D Object Detection with 4D Imaging Radar and
Camera Fusion [14.520176332262725]
本稿では,カメラ上の「サンプリング」ビュー変換戦略と4次元イメージングレーダ融合による3次元物体検出について検討する。
画像深度とレーダ情報を導入して「サンプリング」戦略を強化することにより、より正確なビュー変換を行うことができることを示す。
VoD と TJ4DRadSet データセットの実験により,提案手法はベルやホイッスルを使わずに,最先端の3Dオブジェクト検出手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-03T03:09:44Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - 4D-Net for Learned Multi-Modal Alignment [87.58354992455891]
本稿では,3DポイントクラウドとRGBセンシング情報を利用した3Dオブジェクト検出手法である4D-Netを提案する。
様々な特徴表現や抽象化レベルにまたがる新しい接続学習を行い、また幾何学的制約を観察することで、4D情報を組み込むことができる。
論文 参考訳(メタデータ) (2021-09-02T16:35:00Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。