論文の概要: Mixed Precision PointPillars for Efficient 3D Object Detection with TensorRT
- arxiv url: http://arxiv.org/abs/2601.12638v1
- Date: Mon, 19 Jan 2026 00:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.718206
- Title: Mixed Precision PointPillars for Efficient 3D Object Detection with TensorRT
- Title(参考訳): テンソルRTによる高能率3次元物体検出のための混合精度ポイントピラー
- Authors: Ninnart Fuengfusin, Keisuke Yoneda, Naoki Suganuma,
- Abstract要約: 我々はPointPillars用に設計された混合精度フレームワークを提案する。
本手法はPTQパイプラインをトレーニングせずに混合精度モデルを提供する。
RTデプロイメントでは、当社のモデルは、それぞれ2.35倍と2.26倍のレイテンシとサイズを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LIDAR 3D object detection is one of the important tasks for autonomous vehicles. Ensuring that this task operates in real-time is crucial. Toward this, model quantization can be used to accelerate the runtime. However, directly applying model quantization often leads to performance degradation due to LIDAR's wide numerical distributions and extreme outliers. To address the wide numerical distribution, we proposed a mixed precision framework designed for PointPillars. Our framework first searches for sensitive layers with post-training quantization (PTQ) by quantizing one layer at a time to 8-bit integer (INT8) and evaluating each model for average precision (AP). The top-k most sensitive layers are assigned as floating point (FP). Combinations of these layers are greedily searched to produce candidate mixed precision models, which are finalized with either PTQ or quantization-aware training (QAT). Furthermore, to handle outliers, we observe that using a very small number of calibration data reduces the likelihood of encountering outliers, thereby improving PTQ performance. Our methods provides mixed precision models without training in the PTQ pipeline, while our QAT pipeline achieves the performance competitive to FP models. With TensorRT deployment, our models offer less latency and sizes by up to 2.35 and 2.26 times, respectively.
- Abstract(参考訳): LIDAR 3Dオブジェクト検出は、自動運転車にとって重要なタスクの1つである。
このタスクがリアルタイムに動作することを保証することが重要です。
これに向けて、モデル量子化はランタイムを加速するために使用することができる。
しかし、モデル量子化を直接適用すると、LIDARの広い数値分布と極端な外れ値により、性能が劣化することが多い。
広い数値分布に対処するため,我々はPointPillars向けに設計した混合精度フレームワークを提案する。
まず,1つの層を8ビット整数 (INT8) に量子化し,各モデルを平均精度 (AP) で評価することにより,学習後量子化 (PTQ) を伴うセンシティブな層を探索する。
最も敏感なトップk層は浮動小数点(FP)として割り当てられる。
これらの層の組み合わせは、PTQまたは量子化対応トレーニング(QAT)で確定される候補混合精度モデルを生成するために、厳密に探索される。
さらに, ごく少数のキャリブレーションデータを使用すると, 異常値に遭遇する可能性が低下し, PTQ性能が向上することがわかった。
我々のQATパイプラインは、FPモデルと競合する性能を達成する一方、PTQパイプラインでトレーニングせずに混合精度モデルを提供する。
TensorRTのデプロイメントでは、当社のモデルは、それぞれ2.35倍と2.26倍のレイテンシとサイズを提供する。
関連論文リスト
- PTQAT: A Hybrid Parameter-Efficient Quantization Algorithm for 3D Perception Tasks [9.463776523295303]
ポストトレーニング量子化(PTQ)と量子アウェアトレーニング(QAT)は、2つの主流モデル量子化アプローチを表す。
本稿では,3次元知覚ネットワークの効率的な展開のための新しいハイブリッド量子化アルゴリズムPTQATを提案する。
論文 参考訳(メタデータ) (2025-08-14T11:55:21Z) - Q-PETR: Quant-aware Position Embedding Transformation for Multi-View 3D Object Detection [9.961425621432474]
PETRフレームワークの重要なコンポーネントを再設計する量子化対応位置埋め込み変換であるQ-PETRを提案する。
Q-PETRは、標準的な8ビットのトレーニング後量子化の下で、1%未満の性能低下を伴う浮動小数点性能を維持している。
FP32と比較して、Q-PETRは2倍のスピードアップを実現し、メモリ使用量を3倍削減する。
論文 参考訳(メタデータ) (2025-02-21T14:26:23Z) - LiDAR-PTQ: Post-Training Quantization for Point Cloud 3D Object
Detection [35.35457515189062]
ポストトレーニング量子化(PTQ)は2次元視覚タスクで広く採用されている。
センターポイントに適用した場合、LiDAR-PTQは最先端の量子化性能が得られる。
LiDAR-PTQは、量子化対応のトレーニング手法よりも30倍高速である。
論文 参考訳(メタデータ) (2024-01-29T03:35:55Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - Augmenting Hessians with Inter-Layer Dependencies for Mixed-Precision
Post-Training Quantization [7.392278887917975]
本稿では,ネットワーク上のテンソルに異なる数値精度を割り当てる混合精度ポストトレーニング量子化手法を提案する。
実験では,16ビットベースラインの25.48%$,21.69%$,33.28%$に対して,レイテンシの低減を実証した。
論文 参考訳(メタデータ) (2023-06-08T02:18:58Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。