論文の概要: Improved Multi-Scale Grid Rendering of Point Clouds for Radar Object
Detection Networks
- arxiv url: http://arxiv.org/abs/2305.15836v2
- Date: Sun, 3 Sep 2023 12:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 05:05:43.685587
- Title: Improved Multi-Scale Grid Rendering of Point Clouds for Radar Object
Detection Networks
- Title(参考訳): レーダオブジェクト検出ネットワークのためのポイントクラウドのマルチスケールグリッドレンダリングの改善
- Authors: Daniel K\"ohler, Maurice Quach, Michael Ulrich, Frank Meinl, Bastian
Bischoff and Holger Blume
- Abstract要約: 不規則点雲データから密度の強い格子構造への転送は、しばしば情報の喪失と関連している。
グリッドレンダリングの負の効果を軽減することを目的とした,新しいアーキテクチャであるマルチスケールKPPillarsBEVを提案する。
- 参考スコア(独自算出の注目度): 3.3787383461150045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Architectures that first convert point clouds to a grid representation and
then apply convolutional neural networks achieve good performance for
radar-based object detection. However, the transfer from irregular point cloud
data to a dense grid structure is often associated with a loss of information,
due to the discretization and aggregation of points. In this paper, we propose
a novel architecture, multi-scale KPPillarsBEV, that aims to mitigate the
negative effects of grid rendering. Specifically, we propose a novel grid
rendering method, KPBEV, which leverages the descriptive power of kernel point
convolutions to improve the encoding of local point cloud contexts during grid
rendering. In addition, we propose a general multi-scale grid rendering
formulation to incorporate multi-scale feature maps into convolutional
backbones of detection networks with arbitrary grid rendering methods. We
perform extensive experiments on the nuScenes dataset and evaluate the methods
in terms of detection performance and computational complexity. The proposed
multi-scale KPPillarsBEV architecture outperforms the baseline by 5.37% and the
previous state of the art by 2.88% in Car AP4.0 (average precision for a
matching threshold of 4 meters) on the nuScenes validation set. Moreover, the
proposed single-scale KPBEV grid rendering improves the Car AP4.0 by 2.90% over
the baseline while maintaining the same inference speed.
- Abstract(参考訳): 最初に点雲をグリッド表現に変換し、畳み込みニューラルネットワークを適用したアーキテクチャは、レーダベースのオブジェクト検出に優れたパフォーマンスを実現する。
しかしながら、不規則な点雲データから密度の高い格子構造への転送は、ポイントの離散化と集約による情報の損失としばしば関連づけられる。
本稿では,グリッドレンダリングの負の効果を軽減することを目的とした,新しいアーキテクチャであるマルチスケールKPPillarsBEVを提案する。
具体的には,新しいグリッドレンダリング手法であるkpbevを提案する。kpbevは,カーネルポイント畳み込みの記述力を利用して,グリッドレンダリング中のローカルポイントクラウドコンテキストのエンコーディングを改善する。
さらに,マルチスケール特徴マップを任意のグリッドレンダリング手法を用いた検出ネットワークの畳み込みバックボーンに組み込むための,汎用的なマルチスケールグリッドレンダリング方式を提案する。
我々はnuScenesデータセットの広範な実験を行い、検出性能と計算複雑性の観点から評価する。
提案されたマルチスケールのKPPillarsBEVアーキテクチャは、nuScenesの検証セット上で、ベースラインを5.37%、先行状態を2.88%上回る。
さらに,提案する単一スケールkpbevグリッドレンダリングにより,同一の推論速度を維持しつつ,車体ap4.0をベースラインより2.90%向上させることができる。
関連論文リスト
- Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Improved Orientation Estimation and Detection with Hybrid Object
Detection Networks for Automotive Radar [1.53934570513443]
我々は,レーダに基づく物体検出ネットワークを改善するために,グリッドとポイントを併用した新しいハイブリッドアーキテクチャを提案する。
格子描画の前に、点の正確な相対位置を利用して、点ベースモデルが近傍の特徴を抽出できることが示される。
これは、次の畳み込み検出バックボーンに対して大きなメリットがある。
論文 参考訳(メタデータ) (2022-05-03T06:29:03Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - Learning point embedding for 3D data processing [2.12121796606941]
現在の点ベース法は本質的に空間関係処理ネットワークである。
PE-Netは高次元空間における点雲の表現を学習する。
実験によると、PE-Netは複数の挑戦的なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-19T00:25:28Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Multi Projection Fusion for Real-time Semantic Segmentation of 3D LiDAR
Point Clouds [2.924868086534434]
本稿では,ポイントクラウドの複数のプロジェクションを利用する3次元ポイントクラウドセマンティックセマンティックセマンティクスの新しいアプローチを提案する。
我々のMulti-Projection Fusionフレームワークは、2つの異なる高効率2次元完全畳み込みモデルを用いて球面および鳥眼の視射影を解析する。
論文 参考訳(メタデータ) (2020-11-03T19:40:43Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。