論文の概要: RangeDet:In Defense of Range View for LiDAR-based 3D Object Detection
- arxiv url: http://arxiv.org/abs/2103.10039v1
- Date: Thu, 18 Mar 2021 06:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 13:54:38.284037
- Title: RangeDet:In Defense of Range View for LiDAR-based 3D Object Detection
- Title(参考訳): RangeDet:LiDARを用いた3Dオブジェクト検出のためのレンジビューの防御
- Authors: Lue Fan, Xuan Xiong, Feng Wang, Naiyan Wang, Zhaoxiang Zhang
- Abstract要約: アンカーフリーの単段LiDARベースの3Dオブジェクト検出器であるRangeDetを提案する。
一般的に使用されるVoxelizedまたはBird's Eye View(BEV)表現と比較して、範囲ビュー表現はよりコンパクトで量子化エラーはありません。
私達の最もよいモデルは車/歩行者/サイクリストの72.9/75.9/65.8 3D APを達成します。
- 参考スコア(独自算出の注目度): 48.76483606935675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an anchor-free single-stage LiDAR-based 3D object
detector -- RangeDet. The most notable difference with previous works is that
our method is purely based on the range view representation. Compared with the
commonly used voxelized or Bird's Eye View (BEV) representations, the range
view representation is more compact and without quantization error. Although
there are works adopting it for semantic segmentation, its performance in
object detection is largely behind voxelized or BEV counterparts. We first
analyze the existing range-view-based methods and find two issues overlooked by
previous works: 1) the scale variation between nearby and far away objects; 2)
the inconsistency between the 2D range image coordinates used in feature
extraction and the 3D Cartesian coordinates used in output. Then we
deliberately design three components to address these issues in our RangeDet.
We test our RangeDet in the large-scale Waymo Open Dataset (WOD). Our best
model achieves 72.9/75.9/65.8 3D AP on vehicle/pedestrian/cyclist. These
results outperform other range-view-based methods by a large margin (~20 3D AP
in vehicle detection), and are overall comparable with the state-of-the-art
multi-view-based methods. Codes will be public.
- Abstract(参考訳): 本稿では,アンカーフリーなlidarベースの3d物体検出器 rangedetを提案する。
これまでの作品と最も顕著な違いは、この手法が純粋に範囲ビュー表現に基づいていることである。
一般的に使われているVoxelizedまたはBird's Eye View (BEV) 表現と比較すると、レンジビュー表現はよりコンパクトで量子化誤差がない。
セマンティクスのセグメンテーションに採用する作業は存在するが、オブジェクト検出のパフォーマンスはvoxelizedやbevに匹敵するものだ。
まず,既存の範囲ビューに基づく手法を解析した結果,1)近接物体と遠距離物体のスケール変動,2)特徴抽出に使用される2次元範囲画像座標と出力に使用される3次元デカルト座標の不一致,の2つの問題点を見いだした。
次に、RangeDetでこれらの問題に対処するために、3つのコンポーネントを意図的に設計します。
大規模なWaymo Open Dataset(WOD)でRangeDetをテストする。
我々の最良のモデルは、車両/ペデストリアン/サイクリスト上で72.9/75.9/65.8 3d apを達成している。
これらの結果は、他のレンジビューベース手法よりも大きなマージン(車両検出において約20の3D AP)で優れており、全体的に最先端のマルチビューベース手法に匹敵する。
コードは公開されます。
関連論文リスト
- What Matters in Range View 3D Object Detection [15.147558647138629]
ライダーベースの知覚パイプラインは複雑なシーンを解釈するために3Dオブジェクト検出モデルに依存している。
過去のレンジビュー文献に提案されている複数の手法を使わずに、レンジビュー3次元オブジェクト検出モデル間の最先端を実現する。
論文 参考訳(メタデータ) (2024-07-23T18:42:37Z) - Far3D: Expanding the Horizon for Surround-view 3D Object Detection [15.045811199986924]
本稿では、Far3Dと呼ばれるスパースクエリベースの新しいフレームワークを提案する。
高品質な2Dオブジェクトの事前利用により、3Dグローバルクエリを補完する3D適応クエリを生成する。
課題であるArgoverse 2データセット上でのSoTA性能を実証し,150mの範囲をカバーした。
論文 参考訳(メタデータ) (2023-08-18T15:19:17Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RangeRCNN: Towards Fast and Accurate 3D Object Detection with Range
Image Representation [35.6155506566957]
RangeRCNNは、レンジ画像表現に基づく、新しく効果的な3Dオブジェクト検出フレームワークである。
本稿では,拡張残差ブロック(DRB)を用いて,異なる物体スケールを適応させ,よりフレキシブルな受容場を得る。
実験によると、RangeRCNNはKITTIデータセットとOpenデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-01T03:28:13Z) - BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View [117.44028458220427]
自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T15:08:40Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。