論文の概要: PillarHist: A Quantization-aware Pillar Feature Encoder based on Height-aware Histogram
- arxiv url: http://arxiv.org/abs/2405.18734v1
- Date: Wed, 29 May 2024 03:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:58:09.531364
- Title: PillarHist: A Quantization-aware Pillar Feature Encoder based on Height-aware Histogram
- Title(参考訳): PillarHist:ハイト・アウェア・ヒストグラムに基づく量子化対応ピラー特徴エンコーダ
- Authors: Sifan Zhou, Zhihang Yuan, Dawei Yang, Xubin Wen, Xing Hu, Yuguang Shi, Ziyu Zhao, Xiaobo Lu,
- Abstract要約: リアルタイムかつ高性能な3Dオブジェクト検出は、自律走行とロボット工学において重要な役割を果たす。
最近の柱型3次元物体検出器は、そのコンパクトな表現と計算オーバーヘッドの低さから注目されている。
しかし、既存の柱型検出器は、高さ寸法と大きな数値分布差に沿って情報損失を被っている。
- 参考スコア(独自算出の注目度): 21.812058381531212
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time and high-performance 3D object detection plays a critical role in autonomous driving and robotics. Recent pillar-based 3D object detectors have gained significant attention due to their compact representation and low computational overhead, making them suitable for onboard deployment and quantization. However, existing pillar-based detectors still suffer from information loss along height dimension and large numerical distribution difference during pillar feature encoding (PFE), which severely limits their performance and quantization potential. To address above issue, we first unveil the importance of different input information during PFE and identify the height dimension as a key factor in enhancing 3D detection performance. Motivated by this observation, we propose a height-aware pillar feature encoder named PillarHist. Specifically, PillarHist statistics the discrete distribution of points at different heights within one pillar. This simple yet effective design greatly preserves the information along the height dimension while significantly reducing the computation overhead of the PFE. Meanwhile, PillarHist also constrains the arithmetic distribution of PFE input to a stable range, making it quantization-friendly. Notably, PillarHist operates exclusively within the PFE stage to enhance performance, enabling seamless integration into existing pillar-based methods without introducing complex operations. Extensive experiments show the effectiveness of PillarHist in terms of both efficiency and performance.
- Abstract(参考訳): リアルタイムかつ高性能な3Dオブジェクト検出は、自律走行とロボット工学において重要な役割を果たす。
最近の柱型3次元物体検出器は、コンパクトな表現と計算オーバーヘッドの低さから注目されており、搭載された配置や量子化に適している。
しかし、既存の柱型検出器は、柱特徴符号化(PFE)において、その性能と量子化ポテンシャルを著しく制限する、高さ寸法に沿った情報損失と大きな数値分布差に悩まされている。
上記の課題に対処するために,まず,PFE中の異なる入力情報の重要性を明らかにし,その高さ寸法を3次元検出性能向上の鍵となる要素として同定する。
そこで本研究では,PillarHistという高さ対応の柱特徴エンコーダを提案する。
具体的には、ピラーヒストは1つの柱内の異なる高さの点の離散分布を統計する。
このシンプルで効果的な設計は、PFEの計算オーバーヘッドを大幅に減らしながら、高さの寸法に沿った情報を大幅に保存する。
一方、PillarHistは、PFE入力の算術的分布を安定範囲に制限し、量子化に親しみやすいようにしている。
特に、PillarHistはPFEステージ内でのみ動作してパフォーマンスを向上し、複雑な操作を導入することなく、既存の柱ベースのメソッドへのシームレスな統合を可能にする。
大規模な実験は効率と性能の両面でPillarHistの有効性を示している。
関連論文リスト
- Multi-scale Feature Fusion with Point Pyramid for 3D Object Detection [18.41721888099563]
本稿では,POP-RCNN(Point Pyramid RCNN)を提案する。
提案手法は, 様々な既存フレームワークに適用して, 特に長距離検出において, 特徴の豊かさを高めることができる。
論文 参考訳(メタデータ) (2024-09-06T20:13:14Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Fine-Grained Pillar Feature Encoding Via Spatio-Temporal Virtual Grid
for 3D Object Detection [11.798670216671631]
Fine-Grained Pillar Feature (FG-PFE)は、LiDARベースの3Dオブジェクト検出器のための新しい符号化アーキテクチャである。
FG-PFEはPointPillar、CenterPoint-Pillar、PillarNetといったベースラインモデルよりも大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-03-11T04:58:36Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - FlashOcc: Fast and Memory-Efficient Occupancy Prediction via
Channel-to-Height Plugin [32.172269679513285]
FlashOCCは、高速かつメモリ効率の高い占有率予測を集約する。
チャネル・ツー・ハイト変換は、BEVから出力ロジットを3次元空間に持ち上げるために導入された。
その結果,従来の最先端手法よりもプラグ・アンド・プレイ・パラダイムが優れていることが実証された。
論文 参考訳(メタデータ) (2023-11-18T15:28:09Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - PAM:Point-wise Attention Module for 6D Object Pose Estimation [2.4815579733050153]
6次元ポーズ推定は3次元回転と3次元変換の物体認識と推定を指す。
従来の手法では、精細化の過程で深度情報を利用したり、各データ空間で特徴を抽出するための異種アーキテクチャとして設計されていた。
本稿では,RGB-Dから効率よく強力な特徴を抽出できるポイントアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2020-08-12T11:29:48Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。