論文の概要: Module-Wise Network Quantization for 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2303.06753v1
- Date: Sun, 12 Mar 2023 21:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:08:55.498178
- Title: Module-Wise Network Quantization for 6D Object Pose Estimation
- Title(参考訳): 6次元物体ポーズ推定のためのモジュールワイズネットワーク量子化
- Authors: Saqib Javed, Andrew Price, Yinlin Hu, Mathieu Salzmann
- Abstract要約: 本稿では,典型的な6次元ポーズ推定フレームワークのモジュール構造を考慮したモジュール単位の量子化手法を提案する。
これらのモジュールを一意に圧縮することは、均一かつ混合精度の量子化技術より優れていることを示す。
- 参考スコア(独自算出の注目度): 62.994448825082955
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many edge applications, such as collaborative robotics and spacecraft
rendezvous, can benefit from 6D object pose estimation, but must do so on
embedded platforms. Unfortunately, existing 6D pose estimation networks are
typically too large for deployment in such situations and must therefore be
compressed, while maintaining reliable performance. In this work, we present an
approach to doing so by quantizing such networks. More precisely, we introduce
a module-wise quantization strategy that, in contrast to uniform and
mixed-precision quantization, accounts for the modular structure of typical 6D
pose estimation frameworks. We demonstrate that uniquely compressing these
modules outperforms uniform and mixed-precision quantization techniques.
Moreover, our experiments evidence that module-wise quantization can lead to a
significant accuracy boost. We showcase the generality of our approach using
different datasets, quantization methodologies, and network architectures,
including the recent ZebraPose.
- Abstract(参考訳): コラボレーティブロボティクスや宇宙船ランデブーのような多くのエッジアプリケーションは、6dオブジェクトのポーズ推定の恩恵を受けるが、組み込みプラットフォームでそうしなければならない。
残念ながら、既存の6Dポーズ推定ネットワークは、そのような状況では配置するには大きすぎるため、信頼性を維持しながら圧縮されなければならない。
本研究では,そのようなネットワークを定量化する手法を提案する。
より正確には、一様かつ混合精度の量子化とは対照的に、典型的な6次元ポーズ推定フレームワークのモジュラ構造を考慮に入れたモジュール単位の量子化戦略を導入する。
これらのモジュールを一意に圧縮することは、均一かつ混合精度の量子化技術より優れていることを示す。
さらに,モジュールワイド量子化が精度向上につながることを示す実験を行った。
我々は,最新のZebraPoseを含む,異なるデータセット,量子化手法,ネットワークアーキテクチャを用いたアプローチの汎用性を示す。
関連論文リスト
- Q-S5: Towards Quantized State Space Models [41.94295877935867]
状態空間モデル(SSM)はトランスフォーマーの強力な代替品として登場した。
本稿では,S5モデルに対する量子化の効果について検討し,そのモデル性能への影響について考察する。
論文 参考訳(メタデータ) (2024-06-13T09:53:24Z) - Adaptive quantization with mixed-precision based on low-cost proxy [8.527626602939105]
本稿では,Low-Cost Proxy-Based Adaptive Mixed-Precision Model Quantization (LCPAQ) と呼ばれる新しいモデル量子化法を提案する。
ハードウェア対応モジュールはハードウェアの制約を考慮して設計され、適応型混合精度量子化モジュールは量子化感度を評価するために開発された。
ImageNetの実験では、提案したLCPAQが既存の混合精度モデルに匹敵するあるいは優れた量子化精度を達成している。
論文 参考訳(メタデータ) (2024-02-27T17:36:01Z) - A Study of Quantisation-aware Training on Time Series Transformer Models
for Resource-constrained FPGAs [19.835810073852244]
本研究では,時系列トランスフォーマーモデルにおける量子化対応トレーニング(QAT)について検討する。
そこで本研究では,QAT相における対称スキームと非対称スキームを動的に選択する適応量子化手法を提案する。
論文 参考訳(メタデータ) (2023-10-04T08:25:03Z) - LLM-QAT: Data-Free Quantization Aware Training for Large Language Models [38.76165207636793]
本研究では,事前学習モデルにより生成した世代を利用したデータフリー蒸留法を提案する。
重みとアクティベーションの定量化に加えて、スループット向上に重要なKVキャッシュの定量化も行います。
我々は7B,13B,30BのLLaMAモデルを4ビット以下の量子化レベルで実験した。
論文 参考訳(メタデータ) (2023-05-29T05:22:11Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark [53.12623958951738]
MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
論文 参考訳(メタデータ) (2021-11-05T23:38:44Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。