論文の概要: Redemption from Range-view for Accurate 3D Object Detection
- arxiv url: http://arxiv.org/abs/2307.11482v1
- Date: Fri, 21 Jul 2023 10:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 12:52:30.717049
- Title: Redemption from Range-view for Accurate 3D Object Detection
- Title(参考訳): 高精度3次元物体検出のためのレンジビューからの省略
- Authors: Yihan Wang and Qiao Yan
- Abstract要約: 本稿では、R2R-CNN(R2R-CNN)によるレンジビュー表現を包括的に探索する新しい高精度アプローチを提案する。
提案手法は,複数のスケールでレンジビューの幾何情報をキャプチャするHD Meta Kernelを用いて,スケールの変動に対処する。
広視野から3次元表面テクスチャ情報を復元するために,FPR(Feature Points Redemption)を導入し,高精度なボックス精錬のための複数の受容場を備えたマルチスケールアプローチであるSynchronous-Grid RoI Poolingを紹介した。
- 参考スコア(独自算出の注目度): 9.858647556718946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most recent approaches for 3D object detection predominantly rely on
point-view or bird's-eye view representations, with limited exploration of
range-view-based methods. The range-view representation suffers from scale
variation and surface texture deficiency, both of which pose significant
limitations for developing corresponding methods. Notably, the surface texture
loss problem has been largely ignored by all existing methods, despite its
significant impact on the accuracy of range-view-based 3D object detection. In
this study, we propose Redemption from Range-view R-CNN (R2 R-CNN), a novel and
accurate approach that comprehensively explores the range-view representation.
Our proposed method addresses scale variation through the HD Meta Kernel, which
captures range-view geometry information in multiple scales. Additionally, we
introduce Feature Points Redemption (FPR) to recover the lost 3D surface
texture information from the range view, and Synchronous-Grid RoI Pooling
(S-Grid RoI Pooling), a multi-scaled approach with multiple receptive fields
for accurate box refinement. Our R2 R-CNN outperforms existing range-view-based
methods, achieving state-of-the-art performance on both the KITTI benchmark and
the Waymo Open Dataset. Our study highlights the critical importance of
addressing the surface texture loss problem for accurate 3D object detection in
range-view-based methods. Codes will be made publicly available.
- Abstract(参考訳): 近年の3Dオブジェクト検出のアプローチは、主に点視や鳥眼視の表現に依存しており、範囲視に基づく手法は限られている。
レンジビュー表現は、スケールの変化と表面テクスチャの欠乏に苦しむが、どちらも対応する方法を開発する上で大きな制限を与える。
特に、表面テクスチャ損失問題は、レンジビューに基づく3Dオブジェクト検出の精度に大きな影響を与えているにもかかわらず、既存のすべての手法によって無視されている。
本研究では、レンジビュー表現を包括的に探求する新規かつ正確なR-CNN(R2 R-CNN)を提案する。
提案手法は,複数のスケールでレンジビューの幾何情報をキャプチャするHD Meta Kernelによるスケール変動に対処する。
さらに,広視野から3次元表面テクスチャ情報を復元するためにFPR(Feature Points Redemption)を導入し,高精度なボックスリファインメントのための複数の受容場を備えたマルチスケールアプローチであるS-Grid RoI Pooling(S-Grid RoI Pooling)を紹介した。
我々のR2 R-CNNは既存のレンジビューベースの手法より優れており、KITTIベンチマークとWaymo Open Datasetの両方で最先端のパフォーマンスを実現しています。
本研究は, 3次元物体検出における表面テクスチャ損失問題に対処する上で重要な課題について述べる。
コードは公開される予定だ。
関連論文リスト
- What Matters in Range View 3D Object Detection [15.147558647138629]
ライダーベースの知覚パイプラインは複雑なシーンを解釈するために3Dオブジェクト検出モデルに依存している。
過去のレンジビュー文献に提案されている複数の手法を使わずに、レンジビュー3次元オブジェクト検出モデル間の最先端を実現する。
論文 参考訳(メタデータ) (2024-07-23T18:42:37Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - SM3D: Simultaneous Monocular Mapping and 3D Detection [1.2183405753834562]
本稿では,同時マッピングと3次元検出のための,革新的で効率的なマルチタスク深層学習フレームワーク(SM3D)を提案する。
両モジュールのエンドツーエンドのトレーニングにより、提案したマッピングと3D検出は、最先端のベースラインを10.0%、精度13.2%で上回っている。
我々の単分子マルチタスクSM3Dは純粋なステレオ3D検出器の2倍以上の速度で、2つのモジュールを別々に使用するより18.3%速い。
論文 参考訳(メタデータ) (2021-11-24T17:23:37Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RangeRCNN: Towards Fast and Accurate 3D Object Detection with Range
Image Representation [35.6155506566957]
RangeRCNNは、レンジ画像表現に基づく、新しく効果的な3Dオブジェクト検出フレームワークである。
本稿では,拡張残差ブロック(DRB)を用いて,異なる物体スケールを適応させ,よりフレキシブルな受容場を得る。
実験によると、RangeRCNNはKITTIデータセットとOpenデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-01T03:28:13Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。