論文の概要: HPTQ: Hardware-Friendly Post Training Quantization
- arxiv url: http://arxiv.org/abs/2109.09113v1
- Date: Sun, 19 Sep 2021 12:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 10:30:09.733918
- Title: HPTQ: Hardware-Friendly Post Training Quantization
- Title(参考訳): HPTQ:ハードウェアフレンドリーなポストトレーニング量子化
- Authors: Hai Victor Habi, Reuven Peretz, Elad Cohen, Lior Dikstein, Oranit
Dror, Idit Diamant, Roy H. Jennings and Arnon Netzer
- Abstract要約: ハードウェアフレンドリーなポストトレーニング量子化(HPTQ)フレームワークを導入する。
分類,オブジェクト検出,セマンティックセグメンテーション,ポーズ推定の4つのタスクについて大規模な研究を行う。
ハードウェアフレンドリーな制約の下で競争結果が得られることを示す実験を行った。
- 参考スコア(独自算出の注目度): 6.515659231669797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network quantization enables the deployment of models on edge devices.
An essential requirement for their hardware efficiency is that the quantizers
are hardware-friendly: uniform, symmetric, and with power-of-two thresholds. To
the best of our knowledge, current post-training quantization methods do not
support all of these constraints simultaneously. In this work, we introduce a
hardware-friendly post training quantization (HPTQ) framework, which addresses
this problem by synergistically combining several known quantization methods.
We perform a large-scale study on four tasks: classification, object detection,
semantic segmentation and pose estimation over a wide variety of network
architectures. Our extensive experiments show that competitive results can be
obtained under hardware-friendly constraints.
- Abstract(参考訳): ニューラルネットワーク量子化は、エッジデバイスへのモデルのデプロイを可能にする。
ハードウェア効率にとって必須の要件は、量子化器がハードウェアに優しく、一様で対称で、2つのしきい値を持つことである。
我々の知る限り、現在のポストトレーニング量子化法はこれらの制約をすべて同時にサポートしていない。
本稿では,いくつかの既知の量子化手法を相乗的に組み合わせることでこの問題に対処する,ハードウェアフレンドリなポストトレーニング量子化(hptq)フレームワークを提案する。
分類,オブジェクト検出,セマンティックセグメンテーション,ポーズ推定の4つのタスクについて,多種多様なネットワークアーキテクチャ上で大規模に検討した。
広範な実験により,ハードウェアフレンドリーな制約下での競争結果が得られることを示した。
関連論文リスト
- A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - RepQuant: Towards Accurate Post-Training Quantization of Large
Transformer Models via Scale Reparameterization [8.827794405944637]
ポストトレーニング量子化(PTQ)は、大きなトランスモデルを圧縮するための有望な解である。
既存のPTQメソッドは、通常、非自明な性能損失を示す。
本稿では、量子化推論デカップリングパラダイムを備えた新しいPTQフレームワークRepQuantを提案する。
論文 参考訳(メタデータ) (2024-02-08T12:35:41Z) - Resource Saving via Ensemble Techniques for Quantum Neural Networks [1.4606049539095878]
本稿では,複数の量子ニューラルネットワークのインスタンスに基づいて,単一の機械学習モデルを構築することを含むアンサンブル手法を提案する。
特に,データロード構成の異なるバッグングとAdaBoostの手法を実装し,その性能を実世界の分類と回帰の両方で評価する。
これらの手法により,比較的小さな量子デバイス上でも,大規模で強力なモデルの構築が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-03-20T17:19:45Z) - TeD-Q: a tensor network enhanced distributed hybrid quantum machine
learning framework [59.07246314484875]
TeD-Qは、量子機械学習のためのオープンソースのソフトウェアフレームワークである。
古典的な機械学習ライブラリと量子シミュレータをシームレスに統合する。
量子回路とトレーニングの進捗をリアルタイムで視覚化できるグラフィカルモードを提供する。
論文 参考訳(メタデータ) (2023-01-13T09:35:05Z) - MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark [53.12623958951738]
MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
論文 参考訳(メタデータ) (2021-11-05T23:38:44Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A White Paper on Neural Network Quantization [20.542729144379223]
本稿では,量子化ノイズがネットワークの性能に与える影響を緩和する最新アルゴリズムを提案する。
我々は,ポストトレーニング量子化(PTQ)と量子化アウェア・トレーニング(QAT)の2つのアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2021-06-15T17:12:42Z) - Training Multi-bit Quantized and Binarized Networks with A Learnable
Symmetric Quantizer [1.9659095632676098]
リソース制約のあるデバイスやクラウドプラットフォームにそれらをデプロイするには、ディープニューラルネットワークの重み付けとアクティベーションの定量化が不可欠だ。
双対化は量子化の特別な場合であるが、この極端な場合はしばしばいくつかの訓練の困難をもたらす。
双対化の困難を克服するため,uniq と呼ばれる統一量子化フレームワークを開発した。
論文 参考訳(メタデータ) (2021-04-01T02:33:31Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - HMQ: Hardware Friendly Mixed Precision Quantization Block for CNNs [7.219077740523684]
ハードウェアフレンドリー混合精密量子化ブロック(HMQ)について紹介する。
HMQは、Gumbel-Softmax推定器を2組の量子化パラメータの滑らかな推定器に再利用する混合精密量子化ブロックである。
CIFAR10とImageNetで訓練された分類モデルの定量化にHMQを適用する。
論文 参考訳(メタデータ) (2020-07-20T09:02:09Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。