論文の概要: Fully Sparse 3D Object Detection
- arxiv url: http://arxiv.org/abs/2207.10035v1
- Date: Wed, 20 Jul 2022 17:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 14:16:31.585262
- Title: Fully Sparse 3D Object Detection
- Title(参考訳): 完全スパース3次元物体検出
- Authors: Lue Fan, Feng Wang, Naiyan Wang, Zhaoxiang Zhang
- Abstract要約: 長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
- 参考スコア(独自算出の注目度): 57.05834683261658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the perception range of LiDAR increases, LiDAR-based 3D object detection
becomes a dominant task in the long-range perception task of autonomous
driving. The mainstream 3D object detectors usually build dense feature maps in
the network backbone and prediction head. However, the computational and
spatial costs on the dense feature map are quadratic to the perception range,
which makes them hardly scale up to the long-range setting. To enable efficient
long-range LiDAR-based object detection, we build a fully sparse 3D object
detector (FSD). The computational and spatial cost of FSD is roughly linear to
the number of points and independent of the perception range. FSD is built upon
the general sparse voxel encoder and a novel sparse instance recognition (SIR)
module. SIR first groups the points into instances and then applies
instance-wise feature extraction and prediction. In this way, SIR resolves the
issue of center feature missing, which hinders the design of the fully sparse
architecture for all center-based or anchor-based detectors. Moreover, SIR
avoids the time-consuming neighbor queries in previous point-based methods by
grouping points into instances. We conduct extensive experiments on the
large-scale Waymo Open Dataset to reveal the working mechanism of FSD, and
state-of-the-art performance is reported. To demonstrate the superiority of FSD
in long-range detection, we also conduct experiments on Argoverse 2 Dataset,
which has a much larger perception range ($200m$) than Waymo Open Dataset
($75m$). On such a large perception range, FSD achieves state-of-the-art
performance and is 2.4$\times$ faster than the dense counterpart.Codes will be
released at https://github.com/TuSimple/SST.
- Abstract(参考訳): LiDARの知覚範囲が大きくなるにつれて、LiDARに基づく3Dオブジェクト検出は、自律運転の長距離認識タスクにおいて支配的なタスクとなる。
主流の3Dオブジェクト検出器は通常、ネットワークバックボーンと予測ヘッドに密度の高い特徴マップを構築する。
しかし、高密度特徴写像の計算コストと空間コストは知覚範囲に2次的であるため、長距離設定にはほとんどスケールアップできない。
高速な長距離LiDARオブジェクト検出を実現するため,フルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDの計算と空間費用は、点数とほぼ線形であり、知覚範囲とは独立である。
fsdは汎用スパースvoxelエンコーダと新しいスパースインスタンス認識(sir)モジュール上に構築されている。
SIRはまずポイントをインスタンスにグループ化し、インスタンスワイドな特徴抽出と予測を適用します。
このようにして、SIRはセンター機能不足の問題を解消し、センターベースまたはアンカーベースの全検出器のための完全なスパースアーキテクチャの設計を妨げる。
さらにsiは、ポイントをインスタンスにグループ化することで、以前のポイントベースメソッドで時間を要する近隣クエリを回避する。
FSDの動作メカニズムを明らかにするため,大規模なWaymo Open Datasetの広範な実験を行い,その性能について報告する。
長距離検出におけるFSDの優位性を示すために、我々は、Waymo Open Dataset(75m$)よりもはるかに大きな知覚範囲(200m$)を持つArgoverse 2 Datasetの実験も行っています。
このような大きな認識範囲において、fsdは最先端のパフォーマンスを達成し、密度の高いコードよりも2.4$\times$高速である。
関連論文リスト
- SAFDNet: A Simple and Effective Network for Fully Sparse 3D Object Detection [22.120656021516695]
SAFDNetは、完全にスパースな3Dオブジェクト検出のための単純かつ高効率なアーキテクチャである。
オープン、nuScenes、Argoverse2データセットについて広範な実験を行った。
SAFDNetは以前の最高のハイブリッド検出器HEDNetを2.1倍高速で2.6%のmAPで上回った。
論文 参考訳(メタデータ) (2024-03-09T06:48:19Z) - HEDNet: A Hierarchical Encoder-Decoder Network for 3D Object Detection
in Point Clouds [19.1921315424192]
ポイントクラウドにおける3Dオブジェクト検出は、自律運転システムにとって重要である。
3Dオブジェクト検出における主な課題は、3Dシーン内の点のスパース分布に起因する。
本稿では3次元オブジェクト検出のための階層型エンコーダデコーダネットワークであるHEDNetを提案する。
論文 参考訳(メタデータ) (2023-10-31T07:32:08Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - Super Sparse 3D Object Detection [48.684300007948906]
LiDARベースの3Dオブジェクト検出は、自動運転における長距離認識にますます貢献する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
FSD++は、連続するフレーム間の点変化を示す残差点を生成する。
論文 参考訳(メタデータ) (2023-01-05T17:03:56Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。