論文の概要: PointPillars Backbone Type Selection For Fast and Accurate LiDAR Object
Detection
- arxiv url: http://arxiv.org/abs/2209.15252v1
- Date: Fri, 30 Sep 2022 06:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:26:55.588900
- Title: PointPillars Backbone Type Selection For Fast and Accurate LiDAR Object
Detection
- Title(参考訳): 高速かつ高精度なLiDARオブジェクト検出のためのPointPillars Backbone型選択
- Authors: Konrad Lis, Tomasz Kryjak
- Abstract要約: 深部畳み込みニューラルネットワークのバックボーン選択が検出精度と速度に及ぼす影響について実験を行った。
私たちはPointPillarsネットワークを選択しました。これは単純なアーキテクチャ、高速、モジュール性が特徴で、簡単に拡張できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D object detection from LiDAR sensor data is an important topic in the
context of autonomous cars and drones. In this paper, we present the results of
experiments on the impact of backbone selection of a deep convolutional neural
network on detection accuracy and computation speed. We chose the PointPillars
network, which is characterised by a simple architecture, high speed, and
modularity that allows for easy expansion. During the experiments, we paid
particular attention to the change in detection efficiency (measured by the mAP
metric) and the total number of multiply-addition operations needed to process
one point cloud. We tested 10 different convolutional neural network
architectures that are widely used in image-based detection problems. For a
backbone like MobilenetV1, we obtained an almost 4x speedup at the cost of a
1.13% decrease in mAP. On the other hand, for CSPDarknet we got an acceleration
of more than 1.5x at an increase in mAP of 0.33%. We have thus demonstrated
that it is possible to significantly speed up a 3D object detector in LiDAR
point clouds with a small decrease in detection efficiency. This result can be
used when PointPillars or similar algorithms are implemented in embedded
systems, including SoC FPGAs. The code is available at
https://github.com/vision-agh/pointpillars\_backbone.
- Abstract(参考訳): lidarセンサーデータからの3dオブジェクト検出は、自動運転車やドローンのコンテキストにおいて重要なトピックである。
本稿では,深層畳み込みニューラルネットワークのバックボーン選択が検出精度と計算速度に与える影響に関する実験結果を示す。
私たちはPointPillarsネットワークを選択しました。これは単純なアーキテクチャ、高速、モジュール性が特徴で、簡単に拡張できます。
実験中,検出効率の変化(マップメトリックによる測定)と,1つのポイントクラウドを処理するために必要な乗算演算の総数に特に注意を払った。
画像に基づく検出問題に広く用いられている10種類の畳み込みニューラルネットワークアーキテクチャをテストした。
MobilenetV1のようなバックボーンでは、mAPが1.13%減少するというコストで、ほぼ4倍のスピードアップを得た。
一方,CSPDarknetでは,mAPが0.33%増加すると1.5倍以上の加速が得られた。
その結果,LiDAR点雲における3次元物体検出器の高速化は,検出効率を低下させることなく実現可能であることがわかった。
この結果は、PointPillarsや類似のアルゴリズムがSoC FPGAなどの組み込みシステムに実装されている場合に利用できる。
コードはhttps://github.com/vision-agh/pointpillars\_backboneで入手できる。
関連論文リスト
- FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Deployment of Deep Neural Networks for Object Detection on Edge AI
Devices with Runtime Optimization [11.408144862469172]
エッジAIプラットフォームに2つの代表的なオブジェクト検出ネットワークを配置することを検討する。
特に、画像ベースの2Dオブジェクト検出のためのRetinaNetと、LiDARベースの3Dオブジェクト検出のためのPointPillarsについて検討する。
我々はRTとTorchScriptの2つの異なるライブラリを用いて,デプロイアルゴリズムのランタイムを評価する。
論文 参考訳(メタデータ) (2021-08-18T14:21:53Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection [44.024530632421836]
Range Sparse Net (RSN) は、単純で効率的で正確な3Dオブジェクト検出器である。
RSNは、範囲画像からフォアグラウンドポイントを予測し、選択したフォアグラウンドポイントにスパース畳み込みを適用してオブジェクトを検出する。
RSNは、LiDARベースの歩行者と車両検出のためのAPH/LEVEL 1メトリクスに基づいて、リーダーボードで第1位にランクされている。
論文 参考訳(メタデータ) (2021-06-25T00:23:55Z) - LiDAR R-CNN: An Efficient and Universal 3D Object Detector [20.17906188581305]
自動運転の知覚システムには、LiDARベースの3D検出が欠かせません。
lidar r-cnnは,既存の3d検出器を改良できる第2段検出器である。
特に、PointPillarsの1つのバリエーションに基づいて、私たちの方法は小さなコストで新しい最先端の結果を達成できます。
論文 参考訳(メタデータ) (2021-03-29T03:01:21Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Optimisation of the PointPillars network for 3D object detection in
point clouds [1.1470070927586016]
本稿では,3次元物体検出のための深層ニューラルネットワークの最適化について述べる。
我々は、検出精度と計算複雑性との間に合理的な妥協をもたらすPointPillarsネットワークの実験を行った。
これにより、低消費電力でリアルタイムのLiDARデータ処理が可能になる。
論文 参考訳(メタデータ) (2020-07-01T13:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。