論文の概要: R2Det: Redemption from Range-view for Accurate 3D Object Detection
- arxiv url: http://arxiv.org/abs/2307.11482v2
- Date: Thu, 24 Aug 2023 05:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 17:19:02.649058
- Title: R2Det: Redemption from Range-view for Accurate 3D Object Detection
- Title(参考訳): R2Det: 正確な3Dオブジェクト検出のためのレンジビューの省略
- Authors: Yihan Wang, Qiao Yan and Yi Wang
- Abstract要約: Reemption from Range-view Module (R2M) は2次元視野から3次元視点への3次元表面テクスチャ強化のためのプラグアンドプレイアプローチである。
R2Mは、最先端のLiDARベースの3Dオブジェクト検出器を前処理としてシームレスに統合することができる。
- 参考スコア(独自算出の注目度): 16.855672228478074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-based 3D object detection is of paramount importance for autonomous
driving. Recent trends show a remarkable improvement for bird's-eye-view (BEV)
based and point-based methods as they demonstrate superior performance compared
to range-view counterparts. This paper presents an insight that leverages
range-view representation to enhance 3D points for accurate 3D object
detection. Specifically, we introduce a Redemption from Range-view Module
(R2M), a plug-and-play approach for 3D surface texture enhancement from the 2D
range view to the 3D point view. R2M comprises BasicBlock for 2D feature
extraction, Hierarchical-dilated (HD) Meta Kernel for expanding the 3D
receptive field, and Feature Points Redemption (FPR) for recovering 3D surface
texture information. R2M can be seamlessly integrated into state-of-the-art
LiDAR-based 3D object detectors as preprocessing and achieve appealing
improvement, e.g., 1.39%, 1.67%, and 1.97% mAP improvement on easy, moderate,
and hard difficulty level of KITTI val set, respectively. Based on R2M, we
further propose R2Detector (R2Det) with the Synchronous-Grid RoI Pooling for
accurate box refinement. R2Det outperforms existing range-view-based methods by
a significant margin on both the KITTI benchmark and the Waymo Open Dataset.
Codes will be made publicly available.
- Abstract(参考訳): LiDARベースの3Dオブジェクト検出は、自動運転において最重要となる。
近年の鳥眼ビュー(BEV)と点ベース法は,視線ビューに比べて優れた性能を示した。
本稿では,3次元物体の正確な検出のために,レンジビュー表現を活用して3次元点の強調を行う。
具体的には,R2M(Redemption from Range-view Module)を導入し,2次元視点から3次元視点への3次元表面テクスチャ強調のためのプラグアンドプレイ手法を提案する。
R2Mは,2次元特徴抽出のためのBasicBlock,3次元受容場を拡張するための階層化(HD)メタカーネル,3次元表面テクスチャ情報を復元するための特徴点再空白(FPR)を備える。
R2Mは、最先端のLiDARベースの3Dオブジェクト検出器にシームレスに統合され、KITTI valセットの容易性、適度性、難易度においてそれぞれ1.39%、1.67%、および1.97%のmAP改善を達成できる。
さらに,R2Mに基づいて,R2Detector (R2Det) とSynchronous-Grid RoI Poolingを併用して,ボックスの精密化を提案する。
R2Detは、KITTIベンチマークとWaymo Open Datasetの両方で、既存のレンジビューベースの手法よりも大幅に優れている。
コードは公開される予定だ。
関連論文リスト
- What Matters in Range View 3D Object Detection [15.147558647138629]
ライダーベースの知覚パイプラインは複雑なシーンを解釈するために3Dオブジェクト検出モデルに依存している。
過去のレンジビュー文献に提案されている複数の手法を使わずに、レンジビュー3次元オブジェクト検出モデル間の最先端を実現する。
論文 参考訳(メタデータ) (2024-07-23T18:42:37Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - SM3D: Simultaneous Monocular Mapping and 3D Detection [1.2183405753834562]
本稿では,同時マッピングと3次元検出のための,革新的で効率的なマルチタスク深層学習フレームワーク(SM3D)を提案する。
両モジュールのエンドツーエンドのトレーニングにより、提案したマッピングと3D検出は、最先端のベースラインを10.0%、精度13.2%で上回っている。
我々の単分子マルチタスクSM3Dは純粋なステレオ3D検出器の2倍以上の速度で、2つのモジュールを別々に使用するより18.3%速い。
論文 参考訳(メタデータ) (2021-11-24T17:23:37Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RangeRCNN: Towards Fast and Accurate 3D Object Detection with Range
Image Representation [35.6155506566957]
RangeRCNNは、レンジ画像表現に基づく、新しく効果的な3Dオブジェクト検出フレームワークである。
本稿では,拡張残差ブロック(DRB)を用いて,異なる物体スケールを適応させ,よりフレキシブルな受容場を得る。
実験によると、RangeRCNNはKITTIデータセットとOpenデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-01T03:28:13Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。