論文の概要: Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting
- arxiv url: http://arxiv.org/abs/2312.10588v1
- Date: Sun, 17 Dec 2023 02:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:45:05.899641
- Title: Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting
- Title(参考訳): 粗度・細度分割による再パラメータ化のためのポストトレーニング量子化
- Authors: Dawei Yang, Ning He, Xing Hu, Zhihang Yuan, Jiangyong Yu, Chen Xu, Zhe
Jiang
- Abstract要約: 本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
- 参考スコア(独自算出の注目度): 13.270381125055275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although neural networks have made remarkable advancements in various
applications, they require substantial computational and memory resources.
Network quantization is a powerful technique to compress neural networks,
allowing for more efficient and scalable AI deployments. Recently,
Re-parameterization has emerged as a promising technique to enhance model
performance while simultaneously alleviating the computational burden in
various computer vision tasks. However, the accuracy drops significantly when
applying quantization on the re-parameterized networks. We identify that the
primary challenge arises from the large variation in weight distribution across
the original branches. To address this issue, we propose a coarse & fine weight
splitting (CFWS) method to reduce quantization error of weight, and develop an
improved KL metric to determine optimal quantization scales for activation. To
the best of our knowledge, our approach is the first work that enables
post-training quantization applicable on re-parameterized networks. For
example, the quantized RepVGG-A1 model exhibits a mere 0.3% accuracy loss. The
code is in https://github.com/NeonHo/Coarse-Fine-Weight-Split.git
- Abstract(参考訳): ニューラルネットワークは様々な応用において顕著な進歩を遂げているが、かなりの計算資源とメモリ資源を必要とする。
ネットワーク量子化はニューラルネットワークを圧縮する強力な技術であり、より効率的でスケーラブルなAIデプロイメントを可能にする。
近年,様々なコンピュータビジョンタスクにおける計算負荷を軽減すると同時に,モデル性能を向上させる有望な手法として再パラメータ化が登場している。
しかし、再パラメータ化されたネットワークに量子化を適用すると、精度は大幅に低下する。
第一の課題は, 分枝全体の重量分布のばらつきから生じていることを明らかにする。
この問題に対処するために,重量の量子化誤差を低減し,活性化のための最適量子化スケールを決定するための改良klメトリックを開発した。
私たちの知る限りでは、我々のアプローチは再パラメータネットワークに適用可能なトレーニング後の量子化を可能にする最初の作業です。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
コードはhttps://github.com/NeonHo/Coarse-Fine-Weight-Split.gitにある。
関連論文リスト
- Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping [60.086820254217336]
近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
論文 参考訳(メタデータ) (2022-12-22T13:23:19Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Standard Deviation-Based Quantization for Deep Neural Networks [17.495852096822894]
深層ニューラルネットワークの量子化は、推論コストを低減するための有望なアプローチである。
ネットワークの重みと活性化分布の知識を用いて量子化間隔(離散値)を学習する新しいフレームワークを提案する。
提案手法は,ネットワークのパラメータを同時に推定し,量子化過程におけるプルーニング比を柔軟に調整する。
論文 参考訳(メタデータ) (2022-02-24T23:33:47Z) - Post-training Quantization for Neural Networks with Provable Guarantees [9.58246628652846]
学習後ニューラルネットワーク量子化手法であるGPFQを,欲求経路追従機構に基づいて修正する。
単層ネットワークを定量化するためには、相対二乗誤差は本質的に重み数で線形に減衰する。
論文 参考訳(メタデータ) (2022-01-26T18:47:38Z) - ECQ$^{\text{x}}$: Explainability-Driven Quantization for Low-Bit and
Sparse DNNs [13.446502051609036]
我々はディープニューラルネットワーク(DNN)のための新しい量子化パラダイムを開発し、記述する。
本手法は,説明可能なAI(XAI)の概念と情報理論の概念を活用する。
最終的な目標は、最高の情報内容の量子化クラスタにおいて、最も関連性の高い重みを維持することである。
論文 参考訳(メタデータ) (2021-09-09T12:57:06Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Quantized Proximal Averaging Network for Analysis Sparse Coding [23.080395291046408]
反復アルゴリズムをトレーニング可能なネットワークに展開し,量子化前にスパーシティの学習を容易にする。
圧縮画像回復と磁気共鳴画像再構成への応用を実証する。
論文 参考訳(メタデータ) (2021-05-13T12:05:35Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。