論文の概要: SPADE: Sparse Pillar-based 3D Object Detection Accelerator for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2305.07522v3
- Date: Sat, 13 Jan 2024 09:13:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:59:25.008880
- Title: SPADE: Sparse Pillar-based 3D Object Detection Accelerator for
Autonomous Driving
- Title(参考訳): spade: スパースピラーベースの3dオブジェクト検出アクセラレーター
- Authors: Minjae Lee, Seongmin Park, Hyungmin Kim, Minyong Yoon, Janghwan Lee,
Jun Won Choi, Nam Sung Kim, Mingu Kang, Jungwook Choi
- Abstract要約: ポイントクラウド(PC)データを用いた3次元物体検出は、自律運転の知覚パイプラインに不可欠である。
広く採用されている鳥眼ビュー(BEV)エンコーディングであるPointPillarsは、高速で正確な3Dオブジェクト検出のために、3Dポイントクラウドデータを2Dピラーに集約する。
柱型3次元物体検出におけるベクトル空間の幅を最大化し,ベクトルスパース畳み込みを高速化するアルゴリズム・ハードウェア協調設計手法であるSPADEを提案する。
- 参考スコア(独自算出の注目度): 18.745798346661097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection using point cloud (PC) data is essential for perception
pipelines of autonomous driving, where efficient encoding is key to meeting
stringent resource and latency requirements. PointPillars, a widely adopted
bird's-eye view (BEV) encoding, aggregates 3D point cloud data into 2D pillars
for fast and accurate 3D object detection. However, the state-of-the-art
methods employing PointPillars overlook the inherent sparsity of pillar
encoding where only a valid pillar is encoded with a vector of channel
elements, missing opportunities for significant computational reduction.
Meanwhile, current sparse convolution accelerators are designed to handle only
element-wise activation sparsity and do not effectively address the vector
sparsity imposed by pillar encoding.
In this paper, we propose SPADE, an algorithm-hardware co-design strategy to
maximize vector sparsity in pillar-based 3D object detection and accelerate
vector-sparse convolution commensurate with the improved sparsity. SPADE
consists of three components: (1) a dynamic vector pruning algorithm balancing
accuracy and computation savings from vector sparsity, (2) a sparse coordinate
management hardware transforming 2D systolic array into a vector-sparse
convolution accelerator, and (3) sparsity-aware dataflow optimization tailoring
sparse convolution schedules for hardware efficiency. Taped-out with a
commercial technology, SPADE saves the amount of computation by 36.3--89.2\%
for representative 3D object detection networks and benchmarks, leading to
1.3--10.9$\times$ speedup and 1.5--12.6$\times$ energy savings compared to the
ideal dense accelerator design. These sparsity-proportional performance gains
equate to 4.1--28.8$\times$ speedup and 90.2--372.3$\times$ energy savings
compared to the counterpart server and edge platforms.
- Abstract(参考訳): ポイントクラウド(PC)データを用いた3Dオブジェクト検出は、効率的な符号化が厳しいリソースと遅延要求を満たすための鍵となる自動運転の知覚パイプラインに不可欠である。
広く採用されている鳥眼ビュー(BEV)エンコーディングであるPointPillarsは、高速で正確な3Dオブジェクト検出のために、3Dポイントクラウドデータを2Dピラーに集約する。
しかし、PointPillarsを用いた最先端の手法は、有効な柱だけがチャネル要素のベクトルで符号化されるような柱符号化の本質的にの空間性を見落としている。
一方、現在のスパース畳み込み加速器は、要素単位の活性化間隔のみを扱うように設計されており、柱符号化によって課されるベクトル間隔に効果的に対処しない。
本稿では,ピラー型3次元物体検出におけるベクトルスパースを最大化し,ベクトルスパース畳み込みを高速化するアルゴリズム・ハードウエア共同設計手法であるspadeを提案する。
SPADEは,(1)ベクトル空間の精度と計算コストのバランスをとる動的ベクトルプルーニングアルゴリズム,(2)2次元シストリックアレイをベクトルスパース畳み込み加速器に変換するスパース座標管理ハードウェア,(3)ハードウェア効率のためにスパース畳み込みスケジュールを調整する空間性対応データフロー最適化の3つのコンポーネントから構成される。
SPADEは商用技術により、一般的な3Dオブジェクト検出ネットワークとベンチマークの36.3--89.2\%の計算量を削減し、1.3--10.9$\times$スピードアップと1.5--12.6$\times$エネルギー節約に繋がった。
性能は4.1--28.8$\times$ Speedupと90.2--372.3$\times$ Energy savingsと同等である。
関連論文リスト
- Selectively Dilated Convolution for Accuracy-Preserving Sparse Pillar-based Embedded 3D Object Detection [15.661833433778147]
分散点雲データから導出される柱の固有空間を無視するため、高密度柱処理は計算を無駄にする。
我々は、符号化された柱の重要性を評価し、畳み込み出力を選択的に拡張する選択拡張(SD-Conv)畳み込みを提案する。
この設計はSD-Convをサポートし、領域とサイズに大きな需要がなく、スピードアップとモデルの精度のトレードオフが優れている。
論文 参考訳(メタデータ) (2024-08-25T10:14:43Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Ada3D : Exploiting the Spatial Redundancy with Adaptive Inference for
Efficient 3D Object Detection [19.321076175294902]
ボクセルに基づく手法は、自律運転における3次元物体検出の最先端性能を実現している。
それらの計算とメモリの大幅なコストは、資源に制約のある車両に適用する上での課題となる。
本稿では,入力レベルの空間冗長性を利用した適応型推論フレームワークAda3Dを提案する。
論文 参考訳(メタデータ) (2023-07-17T02:58:51Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - PillarNet: Real-Time and High-Performance Pillar-based 3D Object
Detection [4.169126928311421]
リアルタイムかつ高性能な3Dオブジェクト検出は、自動運転にとって重要な課題である。
最近のトップパフォーマンスの3Dオブジェクト検出器は、主に点ベースまたは3Dボクセルベースの畳み込みに依存している。
我々はPillarNetと呼ばれるリアルタイムかつ高性能な柱型検出器を開発した。
論文 参考訳(メタデータ) (2022-05-16T00:14:50Z) - TorchSparse: Efficient Point Cloud Inference Engine [24.541195361633523]
本稿では,高性能なポイントクラウド推論エンジンであるTorchSparseを紹介する。
TorchSparseはスパース畳み込みの2つのボトルネック、すなわち不規則な計算とデータ移動を直接最適化する。
最先端のMinkowskiEngineとSpConvで、それぞれ1.6倍と1.5倍のエンドツーエンドのスピードアップを実現している。
論文 参考訳(メタデータ) (2022-04-21T17:58:30Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。