論文の概要: MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark
- arxiv url: http://arxiv.org/abs/2111.03759v1
- Date: Fri, 5 Nov 2021 23:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:59:22.712624
- Title: MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark
- Title(参考訳): MQBench: 再現性とデプロイ可能なモデル量子化ベンチマークを目指す
- Authors: Yuhang Li, Mingzhu Shen, Jian Ma, Yan Ren, Mingxin Zhao, Qi Zhang,
Ruihao Gong, Fengwei Yu, Junjie Yan
- Abstract要約: MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
- 参考スコア(独自算出の注目度): 53.12623958951738
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Model quantization has emerged as an indispensable technique to accelerate
deep learning inference. While researchers continue to push the frontier of
quantization algorithms, existing quantization work is often unreproducible and
undeployable. This is because researchers do not choose consistent training
pipelines and ignore the requirements for hardware deployments. In this work,
we propose Model Quantization Benchmark (MQBench), a first attempt to evaluate,
analyze, and benchmark the reproducibility and deployability for model
quantization algorithms. We choose multiple different platforms for real-world
deployments, including CPU, GPU, ASIC, DSP, and evaluate extensive
state-of-the-art quantization algorithms under a unified training pipeline.
MQBench acts like a bridge to connect the algorithm and the hardware. We
conduct a comprehensive analysis and find considerable intuitive or
counter-intuitive insights. By aligning the training settings, we find existing
algorithms have about the same performance on the conventional academic track.
While for the hardware-deployable quantization, there is a huge accuracy gap
which remains unsettled. Surprisingly, no existing algorithm wins every
challenge in MQBench, and we hope this work could inspire future research
directions.
- Abstract(参考訳): モデル量子化は深層学習推論を加速させるには不可欠である。
研究者は量子化アルゴリズムのフロンティアを推し進めているが、既存の量子化の作業はしばしば再現不可能で、展開不能である。
これは、一貫したトレーニングパイプラインを選択したり、ハードウェアデプロイメントの要件を無視したりしないためである。
本研究では,モデル量子化アルゴリズムの再現性とデプロイ性の評価,解析,ベンチマークを行う最初の試みであるモデル量子化ベンチマーク(mqbench)を提案する。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、統一されたトレーニングパイプラインの下で、最先端の量子化アルゴリズムを評価する。
MQBenchは、アルゴリズムとハードウェアを接続するためのブリッジのように振る舞う。
包括的な分析を行い、かなりの直感的あるいは直感的な洞察を見出す。
トレーニング設定を合わせることで、既存のアルゴリズムが従来のアカデミックトラックでほぼ同じパフォーマンスを持つことがわかった。
ハードウェアにデプロイ可能な量子化については、未解決のままの巨大な精度ギャップがある。
意外なことに、MQBenchのあらゆる課題に対して既存のアルゴリズムが勝利することはない。
関連論文リスト
- Stressing Out Modern Quantum Hardware: Performance Evaluation and
Execution Insights [2.2091590689610823]
ストレステスト(英語: stress testing)とは、特定のしきい値を超えた計算負荷を与えることによってシステムを評価する手法である。
我々は,ストレステストに基づくプロトコルを用いて,量子H1イオントラップ装置の質的,定量的評価を行う。
論文 参考訳(メタデータ) (2024-01-24T20:22:34Z) - Quantum Architecture Search with Unsupervised Representation Learning [26.981358653272576]
量子アーキテクチャ探索(QAS)のための教師なし表現学習のためのフレームワークを提案する。
我々のフレームワークは、多数のラベル付き量子回路の必要性を排除し、予測不要である。
その結果,本フレームワークは,検索回数の限られた範囲で,より効率的に高い性能の候補回路を得ることができた。
論文 参考訳(メタデータ) (2024-01-21T19:53:17Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - OHQ: On-chip Hardware-aware Quantization [55.62734488492329]
我々は,オンラインデバイスにアクセスすることなく,ハードウェア対応の混合精度量子化を行うオンチップハードウェア・アウェア量子化(OHQ)フレームワークを提案する。
線形プログラミングによるネットワークおよびハードウェアの洞察により、最適化されたビット幅構成が得られる。
ResNet-18 と MobileNetV3 でそれぞれ70% と 73% の精度を実現した。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Quantum simulation with just-in-time compilation [0.0]
ジャスト・イン・タイム(JIT)コンパイル技術を用いて回路ベースの量子シミュレーションを行う。
QibojitはQibo量子コンピューティングフレームワークの新しいモジュールで、Pythonによるジャストインタイムコンパイルアプローチを使用している。
論文 参考訳(メタデータ) (2022-03-16T18:00:00Z) - HPTQ: Hardware-Friendly Post Training Quantization [6.515659231669797]
ハードウェアフレンドリーなポストトレーニング量子化(HPTQ)フレームワークを導入する。
分類,オブジェクト検出,セマンティックセグメンテーション,ポーズ推定の4つのタスクについて大規模な研究を行う。
ハードウェアフレンドリーな制約の下で競争結果が得られることを示す実験を行った。
論文 参考訳(メタデータ) (2021-09-19T12:45:01Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A White Paper on Neural Network Quantization [20.542729144379223]
本稿では,量子化ノイズがネットワークの性能に与える影響を緩和する最新アルゴリズムを提案する。
我々は,ポストトレーニング量子化(PTQ)と量子化アウェア・トレーニング(QAT)の2つのアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2021-06-15T17:12:42Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。