論文の概要: LiDAR-PTQ: Post-Training Quantization for Point Cloud 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2401.15865v1
- Date: Mon, 29 Jan 2024 03:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:00:25.238430
- Title: LiDAR-PTQ: Post-Training Quantization for Point Cloud 3D Object
Detection
- Title(参考訳): LiDAR-PTQ:ポイントクラウド3Dオブジェクト検出のための後処理量子化
- Authors: Sifan Zhou, Liang Li, Xinyu Zhang, Bo Zhang, Shipeng Bai, Miao Sun,
Ziyu Zhao, Xiaobo Lu, Xiangxiang Chu
- Abstract要約: ポストトレーニング量子化(PTQ)は2次元視覚タスクで広く採用されている。
センターポイントに適用した場合、LiDAR-PTQは最先端の量子化性能が得られる。
LiDAR-PTQは、量子化対応のトレーニング手法よりも30倍高速である。
- 参考スコア(独自算出の注目度): 35.35457515189062
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Due to highly constrained computing power and memory, deploying 3D
lidar-based detectors on edge devices equipped in autonomous vehicles and
robots poses a crucial challenge. Being a convenient and straightforward model
compression approach, Post-Training Quantization (PTQ) has been widely adopted
in 2D vision tasks. However, applying it directly to 3D lidar-based tasks
inevitably leads to performance degradation. As a remedy, we propose an
effective PTQ method called LiDAR-PTQ, which is particularly curated for 3D
lidar detection (both SPConv-based and SPConv-free). Our LiDAR-PTQ features
three main components, \textbf{(1)} a sparsity-based calibration method to
determine the initialization of quantization parameters, \textbf{(2)} a
Task-guided Global Positive Loss (TGPL) to reduce the disparity between the
final predictions before and after quantization, \textbf{(3)} an adaptive
rounding-to-nearest operation to minimize the layerwise reconstruction error.
Extensive experiments demonstrate that our LiDAR-PTQ can achieve
state-of-the-art quantization performance when applied to CenterPoint (both
Pillar-based and Voxel-based). To our knowledge, for the very first time in
lidar-based 3D detection tasks, the PTQ INT8 model's accuracy is almost the
same as the FP32 model while enjoying $3\times$ inference speedup. Moreover,
our LiDAR-PTQ is cost-effective being $30\times$ faster than the
quantization-aware training method. Code will be released at
\url{https://github.com/StiphyJay/LiDAR-PTQ}.
- Abstract(参考訳): 高度に制約された計算能力とメモリのため、自動運転車やロボットに搭載されたエッジデバイスに3dlidarベースの検出器を配置することは重要な課題である。
簡便で簡単なモデル圧縮手法であるため、トレーニング後の量子化(ptq)は2次元視覚タスクで広く採用されている。
しかし、3d lidarベースのタスクに直接適用すると、必然的にパフォーマンスが低下する。
本稿では,特に3次元ライダー検出(SPConvベースとSPConvフリーの両方)に有効であるLiDAR-PTQを提案する。
我々のLiDAR-PTQは、量子化パラメータの初期化を決定するスペーサ性に基づくキャリブレーション法である \textbf{(1)} と、量子化前後の最終的な予測の相違を低減するためのタスク誘導グローバルポジティヴロス(TGPL)法である \textbf{(3)} と、階層的再構成誤差を最小限に抑える適応ラウンドリング・トゥ・アレスト演算である。
広汎な実験により、我々のLiDAR-PTQは、CenterPoint(PillarベースとVoxelベースの両方)に適用した場合、最先端の量子化性能を達成できることが示された。
私たちが知る限り、lidarベースの3d検出タスクで初めて、ptq int8モデルの精度はfp32モデルとほぼ同じで、推論のスピードアップは$3\times$である。
さらに、当社のLiDAR-PTQは、量子化対応トレーニング手法よりも30\times$高速である。
コードは \url{https://github.com/StiphyJay/LiDAR-PTQ} でリリースされる。
関連論文リスト
- GMS-3DQA: Projection-based Grid Mini-patch Sampling for 3D Model Quality
Assessment [82.93561866101604]
従来のプロジェクションに基づく3DQA手法は,複数プロジェクションから特徴を直接抽出して品質予測精度を確保する。
我々は,Non-Reference (NR) projection-based textitunderlineGrid underlineMini-patch underlineSampling underline3D Model underlineQuality underlineAssessment (GMS-3DQA)法を提案する。
提案されたGMS-3DQAは、他の3Dよりもはるかに少ない計算資源と推論時間を必要とする
論文 参考訳(メタデータ) (2023-06-09T03:53:12Z) - Improving Post-Training Quantization on Object Detection with Task
Loss-Guided Lp Metric [43.81334288840746]
PTQ(Post-Training Quantization)は、完全精度モデルを直接低ビット幅に変換する。
PTQは、オブジェクト検出などの複雑なタスクに適用した場合、深刻な精度低下を被る。
DetPTQは、最適な量子化パラメータを選択するためにODOLベースの適応Lpメトリックを使用する。
論文 参考訳(メタデータ) (2023-04-19T16:11:21Z) - RepQ-ViT: Scale Reparameterization for Post-Training Quantization of
Vision Transformers [2.114921680609289]
視覚変換器のための新しいPTQフレームワークRepQ-ViTを提案する。
RepQ-ViTは量子化と推論プロセスを分離する。
既存の強力なベースラインを上回り、ViTの4ビットPTQの精度を有効レベルまで向上させることができる。
論文 参考訳(メタデータ) (2022-12-16T02:52:37Z) - RAPQ: Rescuing Accuracy for Power-of-Two Low-bit Post-training
Quantization [4.8018862391424095]
ハードウェア要件を満たすディープニューラルネットワークのためのPTQ(Power-of-Two post-training Quantization)手法を提案する。
本稿では,ネットワーク全体のパワー・オブ・ツー・スケールを動的に調整する,RAPQと呼ばれる新しいパワー・オブ・ツー・PTQフレームワークを提案する。
我々は、より制約のあるハードウェアフレンドリーなPower-of-Two量子化のためのPTQを提案し、SOTA PTQ法とほぼ同じ精度で実現できることを証明した。
論文 参考訳(メタデータ) (2022-04-26T14:02:04Z) - Lite-FPN for Keypoint-based Monocular 3D Object Detection [18.03406686769539]
keypointベースのモノクロ3dオブジェクト検出は、非常に進歩し、高い速度精度のトレードオフを達成した。
マルチスケール機能融合を実現する軽量機能ピラミッドネットワークLite-FPNを提案します。
提案手法は,高い精度とフレームレートを同時に達成する。
論文 参考訳(メタデータ) (2021-05-01T14:44:31Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。