論文の概要: StripDet: Strip Attention-Based Lightweight 3D Object Detection from Point Cloud
- arxiv url: http://arxiv.org/abs/2509.05954v1
- Date: Sun, 07 Sep 2025 07:32:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.794484
- Title: StripDet: Strip Attention-Based Lightweight 3D Object Detection from Point Cloud
- Title(参考訳): StripDet:ポイントクラウドからのストリップアテンションに基づく軽量3Dオブジェクト検出
- Authors: Weichao Wang, Wendong Mao, Zhongfeng Wang,
- Abstract要約: StripDetは、デバイス上の効率性のために設計された、新しい軽量フレームワークである。
標準2次元畳み込みを非対称ストリップ畳み込みに分解することにより、SABは効率よく方向特徴を抽出する。
本モデルでは, 車両検出のための79.97%のmAPを達成し, パラメータを7倍に減らし, ベースラインのPointPillarsを上回った。
- 参考スコア(独自算出の注目度): 6.513870680888872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of high-accuracy 3D object detection models from point cloud remains a significant challenge due to their substantial computational and memory requirements. To address this, we introduce StripDet, a novel lightweight framework designed for on-device efficiency. First, we propose the novel Strip Attention Block (SAB), a highly efficient module designed to capture long-range spatial dependencies. By decomposing standard 2D convolutions into asymmetric strip convolutions, SAB efficiently extracts directional features while reducing computational complexity from quadratic to linear. Second, we design a hardware-friendly hierarchical backbone that integrates SAB with depthwise separable convolutions and a simple multiscale fusion strategy, achieving end-to-end efficiency. Extensive experiments on the KITTI dataset validate StripDet's superiority. With only 0.65M parameters, our model achieves a 79.97% mAP for car detection, surpassing the baseline PointPillars with a 7x parameter reduction. Furthermore, StripDet outperforms recent lightweight and knowledge distillation-based methods, achieving a superior accuracy-efficiency trade-off while establishing itself as a practical solution for real-world 3D detection on edge devices.
- Abstract(参考訳): ポイントクラウドからの高精度な3Dオブジェクト検出モデルのデプロイは、その相当な計算とメモリ要件のため、依然として大きな課題である。
これを解決するために、デバイス上での効率向上のために設計された、新しい軽量フレームワークであるStripDetを紹介します。
まず,長距離空間依存を捕捉する高効率モジュールであるStrip Attention Block (SAB)を提案する。
標準2次元畳み込みを非対称ストリップ畳み込みに分解することにより、SABは2次から線形への計算複雑性を低減しつつ、方向特徴を効率的に抽出する。
第二に、ハードウェアフレンドリーな階層型バックボーンを設計し、SABと深部分離可能な畳み込みと単純なマルチスケール融合戦略を統合し、エンドツーエンド効率を実現する。
KITTIデータセットの大規模な実験は、StripDetの優位性を検証する。
パラメータがわずか0.65Mのモデルでは、車検出のための79.97%のmAPが達成され、ベースラインのPointPillarsを7倍のパラメータ削減で上回っている。
さらに、StripDetは最近の軽量・知識蒸留法よりも優れており、エッジデバイス上での現実的な3D検出の実用的なソリューションとして確立しつつ、精度と効率のトレードオフが優れている。
関連論文リスト
- A Light Perspective for 3D Object Detection [46.23578780480946]
本稿では,最先端のDeep Learning技術を特徴抽出に取り入れた新しい手法を提案する。
私たちのモデルであるNextBEVは、ResNet50やMobileNetV3といった既存の機能抽出ツールを超えています。
これらの軽量な提案を融合することにより、VoxelNetベースのモデルの精度を2.93%向上し、PointPillarベースのモデルのF1スコアを約20%改善しました。
論文 参考訳(メタデータ) (2025-03-10T10:03:23Z) - DM3D: Distortion-Minimized Weight Pruning for Lossless 3D Object Detection [42.07920565812081]
本稿では,3次元物体検出のための新しいトレーニング後の重み付け手法を提案する。
事前訓練されたモデルにおける冗長パラメータを決定し、局所性と信頼性の両方において最小限の歪みをもたらす。
本フレームワークは,ネットワーク出力の歪みを最小限に抑え,検出精度を最大に維持することを目的とする。
論文 参考訳(メタデータ) (2024-07-02T09:33:32Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - Dual Adaptive Transformations for Weakly Supervised Point Cloud
Segmentation [78.6612285236938]
弱制御点雲分割のための新しいDATモデル(textbfDual textbfAdaptive textbfTransformations)を提案する。
我々は,大規模S3DISデータセットとScanNet-V2データセットの2つの人気バックボーンを用いたDATモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-19T05:43:14Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - Lite-FPN for Keypoint-based Monocular 3D Object Detection [18.03406686769539]
keypointベースのモノクロ3dオブジェクト検出は、非常に進歩し、高い速度精度のトレードオフを達成した。
マルチスケール機能融合を実現する軽量機能ピラミッドネットワークLite-FPNを提案します。
提案手法は,高い精度とフレームレートを同時に達成する。
論文 参考訳(メタデータ) (2021-05-01T14:44:31Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。