論文の概要: Super Sparse 3D Object Detection
- arxiv url: http://arxiv.org/abs/2301.02562v1
- Date: Thu, 5 Jan 2023 17:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 00:08:31.561022
- Title: Super Sparse 3D Object Detection
- Title(参考訳): 超スパース3次元物体検出
- Authors: Lue Fan, Yuxue Yang, Feng Wang, Naiyan Wang, and Zhaoxiang Zhang
- Abstract要約: LiDARベースの3Dオブジェクト検出は、自動運転における長距離認識にますます貢献する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
FSD++は、連続するフレーム間の点変化を示す残差点を生成する。
- 参考スコア(独自算出の注目度): 48.684300007948906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the perception range of LiDAR expands, LiDAR-based 3D object detection
contributes ever-increasingly to the long-range perception in autonomous
driving. Mainstream 3D object detectors often build dense feature maps, where
the cost is quadratic to the perception range, making them hardly scale up to
the long-range settings. To enable efficient long-range detection, we first
propose a fully sparse object detector termed FSD. FSD is built upon the
general sparse voxel encoder and a novel sparse instance recognition (SIR)
module. SIR groups the points into instances and applies highly-efficient
instance-wise feature extraction. The instance-wise grouping sidesteps the
issue of the center feature missing, which hinders the design of the fully
sparse architecture. To further enjoy the benefit of fully sparse
characteristic, we leverage temporal information to remove data redundancy and
propose a super sparse detector named FSD++. FSD++ first generates residual
points, which indicate the point changes between consecutive frames. The
residual points, along with a few previous foreground points, form the super
sparse input data, greatly reducing data redundancy and computational overhead.
We comprehensively analyze our method on the large-scale Waymo Open Dataset,
and state-of-the-art performance is reported. To showcase the superiority of
our method in long-range detection, we also conduct experiments on Argoverse 2
Dataset, where the perception range ($200m$) is much larger than Waymo Open
Dataset ($75m$). Code is open-sourced at https://github.com/tusen-ai/SST.
- Abstract(参考訳): LiDARの知覚範囲が拡大するにつれて、LiDARベースの3Dオブジェクト検出は、自律運転における長距離認識にますます寄与する。
メインストリームの3Dオブジェクト検出器は、しばしば高密度の特徴マップを構築する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
fsdは汎用スパースvoxelエンコーダと新しいスパースインスタンス認識(sir)モジュール上に構築されている。
SIRはポイントをインスタンスにグループ化し、高効率なインスタンスワイズ特徴抽出を適用する。
インスタンスワイドのグルーピングは、センター機能の欠如の問題を取り除き、完全にスパースなアーキテクチャの設計を妨げる。
さらに,完全なスパース特性の利点を享受するため,時間情報を利用してデータの冗長性を除去し,fsd++という超スパース検出器を提案する。
FSD++はまず、連続するフレーム間の点変化を示す残差点を生成する。
残差点は、いくつかの前景点と共に、超スパース入力データを形成し、データの冗長性と計算オーバーヘッドを大幅に削減する。
本手法を大規模waymoオープンデータセット上で包括的に解析し,最新性能を報告する。
長距離検出における本手法の優位性を示すため,Argoverse 2 Datasetでは,知覚範囲がWaymo Open Dataset(75m$)よりもはるかに大きい(200m$)実験を行った。
コードはhttps://github.com/tusen-ai/SSTで公開されている。
関連論文リスト
- SAFDNet: A Simple and Effective Network for Fully Sparse 3D Object Detection [22.120656021516695]
SAFDNetは、完全にスパースな3Dオブジェクト検出のための単純かつ高効率なアーキテクチャである。
オープン、nuScenes、Argoverse2データセットについて広範な実験を行った。
SAFDNetは以前の最高のハイブリッド検出器HEDNetを2.1倍高速で2.6%のmAPで上回った。
論文 参考訳(メタデータ) (2024-03-09T06:48:19Z) - HEDNet: A Hierarchical Encoder-Decoder Network for 3D Object Detection
in Point Clouds [19.1921315424192]
ポイントクラウドにおける3Dオブジェクト検出は、自律運転システムにとって重要である。
3Dオブジェクト検出における主な課題は、3Dシーン内の点のスパース分布に起因する。
本稿では3次元オブジェクト検出のための階層型エンコーダデコーダネットワークであるHEDNetを提案する。
論文 参考訳(メタデータ) (2023-10-31T07:32:08Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - Not All Points Are Equal: Learning Highly Efficient Point-based
Detectors for 3D LiDAR Point Clouds [29.762645632148097]
IA-SSDと呼ばれる高効率単段点ベース3D検出器を提案する。
学習可能な,タスク指向の,インスタンス対応の2つのダウンサンプリング戦略を利用して,前景点を階層的に選択する。
いくつかの大規模検出ベンチマークで行った実験は、IA-SSDの競合性能を示している。
論文 参考訳(メタデータ) (2022-03-21T17:14:02Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。