論文の概要: CTMQ: Cyclic Training of Convolutional Neural Networks with Multiple
Quantization Steps
- arxiv url: http://arxiv.org/abs/2206.12794v1
- Date: Sun, 26 Jun 2022 05:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 10:45:58.145803
- Title: CTMQ: Cyclic Training of Convolutional Neural Networks with Multiple
Quantization Steps
- Title(参考訳): CTMQ: 複数の量子化ステップを持つ畳み込みニューラルネットワークのサイクルトレーニング
- Authors: HyunJin Kim, Jungwoo Shin, Alberto A. Del Barrio
- Abstract要約: 本稿では,低ビット量子化畳み込みニューラルネットワーク(CNN)における高機能化を実現するために,複数サイクルの訓練を施したトレーニング手法を提案する。
提案手法は,精度の高いモデルの訓練能力を反復的に活用することにより,各サイクルにおける低ビット量子化モデルの強化された重み付けを実現できる。
特に、トレーニング方法は、ImageNetデータセット上の2項化されたResNet-18のTop-1とTop-5の精度をそれぞれ5.80%と6.85%向上させることができる。
- 参考スコア(独自算出の注目度): 1.3106063755117399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a training method having multiple cyclic training for
achieving enhanced performance in low-bit quantized convolutional neural
networks (CNNs). Quantization is a popular method for obtaining lightweight
CNNs, where the initialization with a pretrained model is widely used to
overcome degraded performance in low-resolution quantization. However, large
quantization errors between real values and their low-bit quantized ones cause
difficulties in achieving acceptable performance for complex networks and large
datasets. The proposed training method softly delivers the knowledge of
pretrained models to low-bit quantized models in multiple quantization steps.
In each quantization step, the trained weights of a model are used to
initialize the weights of the next model with the quantization bit depth
reduced by one. With small change of the quantization bit depth, the
performance gap can be bridged, thus providing better weight initialization. In
cyclic training, after training a low-bit quantized model, its trained weights
are used in the initialization of its accurate model to be trained. By using
better training ability of the accurate model in an iterative manner, the
proposed method can produce enhanced trained weights for the low-bit quantized
model in each cycle. Notably, the training method can advance Top-1 and Top-5
accuracies of the binarized ResNet-18 on the ImageNet dataset by 5.80% and
6.85%, respectively.
- Abstract(参考訳): 本稿では,低ビット量子化畳み込みニューラルネットワーク(cnns)の性能向上を実現するために,複数の巡回訓練を有するトレーニング手法を提案する。
量子化は、低分解能量子化における劣化性能を克服するために、事前訓練されたモデルによる初期化が広く用いられている軽量CNNを得るための一般的な方法である。
しかし、実値と低ビット量子化値の間の大きな量子化誤差は、複雑なネットワークや大規模データセットで許容できる性能を達成するのに困難をもたらす。
提案手法は,複数の量子化ステップにおいて,事前学習したモデルの知識を低ビット量子化モデルにソフトに供給する。
各量子化ステップでは、モデルのトレーニングされた重みを用いて次のモデルの重みを量子化ビット深さを1に減らして初期化する。
量子化ビット深さの小さな変更により、性能ギャップをブリッジできるため、より優れた初期化が可能になる。
繰り返し訓練では、低ビット量子化モデルを訓練した後、トレーニングされた重みはトレーニングされる正確なモデルの初期化に使用される。
提案手法は,精度の高いモデルの訓練能力を反復的に活用することにより,各サイクルにおける低ビット量子化モデルの強化された重み付けを実現できる。
特に、トレーニング方法は、ImageNetデータセット上の2項化されたResNet-18のTop-1とTop-5の精度をそれぞれ5.80%と6.85%向上させることができる。
関連論文リスト
- LLM-QAT: Data-Free Quantization Aware Training for Large Language Models [38.76165207636793]
本研究では,事前学習モデルにより生成した世代を利用したデータフリー蒸留法を提案する。
重みとアクティベーションの定量化に加えて、スループット向上に重要なKVキャッシュの定量化も行います。
我々は7B,13B,30BのLLaMAモデルを4ビット以下の量子化レベルで実験した。
論文 参考訳(メタデータ) (2023-05-29T05:22:11Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - One Model for All Quantization: A Quantized Network Supporting Hot-Swap
Bit-Width Adjustment [36.75157407486302]
多様なビット幅をサポートする全量子化のためのモデルを訓練する手法を提案する。
重みの多様性を高めるためにウェーブレット分解と再構成を用いる。
同じ精度で訓練された専用モデルに匹敵する精度が得られる。
論文 参考訳(メタデータ) (2021-05-04T08:10:50Z) - Learnable Companding Quantization for Accurate Low-bit Neural Networks [3.655021726150368]
ディープニューラルネットワークの量子化は、メモリ消費の削減と推論速度の向上に有効な方法である。
非常に低ビットモデルがフル精度モデルに匹敵する精度を達成することは、まだ困難です。
2,3,4ビットモデルのための新しい非一様量子化手法として学習可能なコンパイル量子化(LCQ)を提案する。
論文 参考訳(メタデータ) (2021-03-12T09:06:52Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Recurrence of Optimum for Training Weight and Activation Quantized
Networks [4.103701929881022]
低精度の重みとアクティベーションを備えたディープラーニングモデルのトレーニングには、必要な最適化タスクが伴う。
ネットワーク量子化の性質を克服する方法を紹介します。
また,訓練用量子化深層ネットワークにおける重み進化の繰り返し現象の数値的証拠を示す。
論文 参考訳(メタデータ) (2020-12-10T09:14:43Z) - Gradient $\ell_1$ Regularization for Quantization Robustness [70.39776106458858]
トレーニング後の量子化に対するロバスト性を改善するための単純な正規化スキームを導出する。
量子化対応ネットワークをトレーニングすることにより、異なるビット幅にオンデマンドで量子化できる1組の重みを格納できる。
論文 参考訳(メタデータ) (2020-02-18T12:31:34Z) - SQWA: Stochastic Quantized Weight Averaging for Improving the
Generalization Capability of Low-Precision Deep Neural Networks [29.187848543158992]
我々は、新しい量子化ニューラルネットワーク最適化手法、量子化ウェイト平均化(SQWA)を提案する。
提案手法には、浮動小数点モデルのトレーニング、重みの直接量子化、複数の低精度モデルのキャプチャ、キャプチャーモデルの平均化、低学習率の微調整が含まれる。
SQWAトレーニングにより、CIFAR-100およびImageNetデータセット上の2ビットQDNNの最先端結果を得た。
論文 参考訳(メタデータ) (2020-02-02T07:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。