論文の概要: Enhanced K-Radar: Optimal Density Reduction to Improve Detection
Performance and Accessibility of 4D Radar Tensor-based Object Detection
- arxiv url: http://arxiv.org/abs/2303.06342v1
- Date: Sat, 11 Mar 2023 08:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:38:57.621327
- Title: Enhanced K-Radar: Optimal Density Reduction to Improve Detection
Performance and Accessibility of 4D Radar Tensor-based Object Detection
- Title(参考訳): 拡張Kレーダ:4次元レーダテンソルを用いた物体検出における検出性能とアクセシビリティ向上のための最適密度低減
- Authors: Dong-Hee Paek, Seung-Hyun Kong, Kevin Tirta Wijaya
- Abstract要約: 4D Sparse Radar (4DSRT)を導入し、4D Radarデータに対するオフライン密度の低減による新しい表現を行い、生データサイズを大幅に削減した。
ニューラルネットワークをトレーニングするための最適化された開発キットも提供され、4DSRTの利用とともに17.1倍のトレーニング速度が向上する。
- 参考スコア(独自算出の注目度): 1.6832237384792461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown the superior robustness of four-dimensional (4D)
Radar-based three-dimensional (3D) object detection in adverse weather
conditions. However, processing 4D Radar data remains a challenge due to the
large data size, which require substantial amount of memory for computing and
storage. In previous work, an online density reduction is performed on the 4D
Radar Tensor (4DRT) to reduce the data size, in which the density reduction
level is chosen arbitrarily. However, the impact of density reduction on the
detection performance and memory consumption remains largely unknown. In this
paper, we aim to address this issue by conducting extensive hyperparamter
tuning on the density reduction level. Experimental results show that
increasing the density level from 0.01% to 50% of the original 4DRT density
level proportionally improves the detection performance, at a cost of memory
consumption. However, when the density level is increased beyond 5%, only the
memory consumption increases, while the detection performance oscillates below
the peak point. In addition to the optimized density hyperparameter, we also
introduce 4D Sparse Radar Tensor (4DSRT), a new representation for 4D Radar
data with offline density reduction, leading to a significantly reduced raw
data size. An optimized development kit for training the neural networks is
also provided, which along with the utilization of 4DSRT, improves training
speed by a factor of 17.1 compared to the state-of-the-art 4DRT-based neural
networks. All codes are available at: https://github.com/kaist-avelab/K-Radar.
- Abstract(参考訳): 近年の研究では、悪天候条件下での4次元レーダーによる3次元物体検出の優れた堅牢性を示している。
しかし、4D Radarのデータ処理は、計算とストレージに大量のメモリを必要とする巨大なデータサイズのため、依然として課題である。
先行研究では、4次元レーダーテンソル(4drt)上でオンライン密度低減を行い、密度低減レベルを任意に選択したデータサイズを低減する。
しかし, 密度低下が検出性能とメモリ消費に与える影響は明らかになっていない。
本稿では,密度低減レベルを広範に調整することにより,この問題に対処することを目的とする。
実験結果から,元の4DRT密度の0.01%から50%への密度上昇は,メモリ消費のコストで検出性能を比例的に向上させることが示された。
しかし、密度レベルが5%を超えるとメモリ消費だけが増加し、検出性能はピーク点以下に変動する。
4d sparse radar tensor (4dsrt) は4d sparse radarデータのオフライン密度低減のための新しい表現であり、生データサイズが大幅に削減される。
ニューラルネットワークをトレーニングするための最適化された開発キットも提供され、4DSRTの利用とともに、最先端の4DRTベースのニューラルネットワークと比較して17.1倍のトレーニング速度が向上する。
すべてのコードは、https://github.com/kaist-avelab/K-Radar.comで入手できる。
関連論文リスト
- 4DR P2T: 4D Radar Tensor Synthesis with Point Clouds [6.605694475813286]
本稿では,深層学習に適したテンソルデータを生成する4D Radar Point-to-Tensor(4DR P2T)モデルを提案する。
K-Radarデータセットの実験結果は、4DR P2Tモデルの有効性を検証し、平均PSNRは30.39dB、SSIMは0.96である。
論文 参考訳(メタデータ) (2025-02-08T12:42:23Z) - SpikingRTNH: Spiking Neural Network for 4D Radar Object Detection [6.636342419996716]
SpikingRTNHは、4D Radarデータを用いた3Dオブジェクト検出のための最初のスパイクニューラルネットワーク(SNN)である。
我々は,高密度から低密度の点雲を逐次処理する生物トップダウン推論(BTI)を導入する。
その結果、自律運転システムにおけるエネルギー効率のよい4Dレーダによる物体検出のためのSNNの実現可能性を確立した。
論文 参考訳(メタデータ) (2025-01-31T07:33:30Z) - 4DRGS: 4D Radiative Gaussian Splatting for Efficient 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images [49.170407434313475]
既存の手法は、しばしば最適以下の結果を生成するか、過剰な計算時間を必要とする。
高品質な高精細化を実現するため、4次元ガウススプラッティング(4DRGS)を提案する。
4DRGSは5分間のトレーニングで印象的な結果を得る。
論文 参考訳(メタデータ) (2024-12-17T13:51:56Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - RTNH+: Enhanced 4D Radar Object Detection Network using Combined
CFAR-based Two-level Preprocessing and Vertical Encoding [8.017543518311196]
RTNH+は4Dレーダオブジェクト検出ネットワークであるRTNHの拡張版である。
RTNH+は10.14%,$AP_3DIoU=0.3$,$AP_3DIoU=0.5$で16.12%の大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-10-19T06:45:19Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。