論文の概要: Spatial Pruned Sparse Convolution for Efficient 3D Object Detection
- arxiv url: http://arxiv.org/abs/2209.14201v1
- Date: Wed, 28 Sep 2022 16:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:22:33.265855
- Title: Spatial Pruned Sparse Convolution for Efficient 3D Object Detection
- Title(参考訳): 効率的な3次元物体検出のための空間分割スパース畳み込み
- Authors: Jianhui Liu, Yukang Chen, Xiaoqing Ye, Zhuotao Tian, Xiao Tan,
Xiaojuan Qi
- Abstract要約: 3Dシーンは多数のバックグラウンドポイントによって支配されており、主に前景オブジェクトにフォーカスする必要がある検出タスクには冗長である。
本稿では,既存の3D CNNの主要なコンポーネントを分析し,データの冗長性を無視し,さらにダウンサンプリングプロセスでそれを増幅することにより,余分な計算オーバーヘッドと不要な計算オーバーヘッドを発生させる。
SPS-ConvとSPSS-ConvとSPRSの2つの変種を含む新しい畳み込み演算子を提案する。
- 参考スコア(独自算出の注目度): 41.62839541489369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scenes are dominated by a large number of background points, which is
redundant for the detection task that mainly needs to focus on foreground
objects. In this paper, we analyze major components of existing sparse 3D CNNs
and find that 3D CNNs ignore the redundancy of data and further amplify it in
the down-sampling process, which brings a huge amount of extra and unnecessary
computational overhead. Inspired by this, we propose a new convolution operator
named spatial pruned sparse convolution (SPS-Conv), which includes two
variants, spatial pruned submanifold sparse convolution (SPSS-Conv) and spatial
pruned regular sparse convolution (SPRS-Conv), both of which are based on the
idea of dynamically determining crucial areas for redundancy reduction. We
validate that the magnitude can serve as important cues to determine crucial
areas which get rid of the extra computations of learning-based methods. The
proposed modules can easily be incorporated into existing sparse 3D CNNs
without extra architectural modifications. Extensive experiments on the KITTI,
Waymo and nuScenes datasets demonstrate that our method can achieve more than
50% reduction in GFLOPs without compromising the performance.
- Abstract(参考訳): 3Dシーンは多数のバックグラウンドポイントによって支配されており、主に前景オブジェクトにフォーカスする必要がある検出タスクには冗長である。
本稿では,既存のsparse 3d cnnの主要コンポーネントを分析し,データの冗長性を無視する3d cnnを,ダウンサンプリングプロセスでさらに増幅することで,膨大な余分で不要な計算オーバーヘッドをもたらすことを見出した。
そこで,本稿では,空間pruned submanifold sparse convolution (spss-conv) と空間pruned regular sparse convolution (sprs-conv) の2つの変種を含む空間pruned sparse convolution (sps-conv) という新しい畳み込み演算子を提案する。
学習に基づく手法の余分な計算をなくす重要な領域を決定する上で,マグニチュードが重要な手がかりとなることを検証した。
提案するモジュールは、アーキテクチャの変更を加えることなく、既存のスパース3D CNNに容易に組み込むことができる。
KITTI, Waymo, nuScenesデータセットの大規模な実験により, 本手法は性能を損なうことなく50%以上のGFLOPを削減できることが示された。
関連論文リスト
- HEDNet: A Hierarchical Encoder-Decoder Network for 3D Object Detection
in Point Clouds [19.1921315424192]
ポイントクラウドにおける3Dオブジェクト検出は、自律運転システムにとって重要である。
3Dオブジェクト検出における主な課題は、3Dシーン内の点のスパース分布に起因する。
本稿では3次元オブジェクト検出のための階層型エンコーダデコーダネットワークであるHEDNetを提案する。
論文 参考訳(メタデータ) (2023-10-31T07:32:08Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Generative Sparse Detection Networks for 3D Single-shot Object Detection [43.91336826079574]
3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
論文 参考訳(メタデータ) (2020-06-22T15:54:24Z) - Spatial Information Guided Convolution for Real-Time RGBD Semantic
Segmentation [79.78416804260668]
本稿では,効率的なRGB機能と3次元空間情報統合を実現するための空間情報ガイドコンボリューション(S-Conv)を提案する。
S-Convは、3次元空間情報によって導かれる畳み込みカーネルのサンプリングオフセットを推測する能力を有する。
我々はさらにS-Convを空間情報ガイド畳み込みネットワーク(SGNet)と呼ばれるセグメンテーションネットワークに組み込みます。
論文 参考訳(メタデータ) (2020-04-09T13:38:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。