論文の概要: PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud
- arxiv url: http://arxiv.org/abs/2112.15458v1
- Date: Fri, 31 Dec 2021 13:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 14:44:20.270872
- Title: PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud
- Title(参考訳): pifenet:ポイントクラウドからのリアルタイム3d歩行者検出のための柱特徴ネットワーク
- Authors: Duy-Tho Le, Hengcan Shi, Hamid Rezatofighi, Jianfei Cai
- Abstract要約: 点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
- 参考スコア(独自算出の注目度): 64.12626752721766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PiFeNet, an efficient and accurate real-time 3D detector for
pedestrian detection from point clouds. We address two challenges that 3D
object detection frameworks encounter when detecting pedestrians: low
expressiveness of pillar features and small occupation areas of pedestrians in
point clouds. Firstly, we introduce a stackable Pillar Aware Attention (PAA)
module for enhanced pillar features extraction while suppressing noises in the
point clouds. By integrating multi-point-aware-pooling, point-wise,
channel-wise, and task-aware attention into a simple module, the representation
capabilities are boosted while requiring little additional computing resources.
We also present Mini-BiFPN, a small yet effective feature network that creates
bidirectional information flow and multi-level cross-scale feature fusion to
better integrate multi-resolution features. Our approach is ranked 1st in KITTI
pedestrian BEV and 3D leaderboards while running at 26 frames per second (FPS),
and achieves state-of-the-art performance on Nuscenes detection benchmark.
- Abstract(参考訳): ポイント雲からの歩行者検出のための,効率的かつ正確なリアルタイム3D検出器PiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題は、柱の特徴の低表現性と、点群における歩行者の小さな占有領域である。
まず,点群内の騒音を抑えつつ,柱の特徴抽出性を高めるために,積み重ね可能な柱認識注意(paa)モジュールを導入する。
マルチポイント・アウェア・プール、ポイントワイズ、チャンネルワイズ、タスクアウェアの注意を単純なモジュールに統合することで、追加のコンピューティングリソースをほとんど必要とせずに表現能力を高めることができる。
また,双方向情報フローとマルチレベルクロススケール機能融合を実現する,小型かつ効果的な機能ネットワークであるmini-bifpnを提案する。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Moby: Empowering 2D Models for Efficient Point Cloud Analytics on the
Edge [11.588467580653608]
3Dオブジェクト検出は多くのアプリケーションにおいて重要な役割を担っている。
計算能力が限られているため、高度に複雑なニューラルネットワークを用いてエッジ上で3D検出を実行することは困難である。
クラウドへのオフロードのような一般的なアプローチは、送信中の大量のポイントクラウドデータのために、大きな遅延オーバーヘッドを引き起こす。
提案するMobyは,我々のアプローチの実現可能性と可能性を示す新しいシステムである。
論文 参考訳(メタデータ) (2023-02-18T03:42:31Z) - FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - CVFNet: Real-time 3D Object Detection by Learning Cross View Features [11.402076835949824]
CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
論文 参考訳(メタデータ) (2022-03-13T06:23:18Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。