論文の概要: Network Quantization with Element-wise Gradient Scaling
- arxiv url: http://arxiv.org/abs/2104.00903v1
- Date: Fri, 2 Apr 2021 06:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:50:37.456411
- Title: Network Quantization with Element-wise Gradient Scaling
- Title(参考訳): 要素ワイドグレーディエントスケーリングによるネットワーク量子化
- Authors: Junghyup Lee, Dohyung Kim, Bumsub Ham
- Abstract要約: ネットワーク量子化は、ウェイトおよび/またはアクティベーションのビット幅を減らすことを目的とする。
ほとんどの方法はストレートスルー推定器(ste)を使用して量子化されたネットワークを訓練する。
本稿では、STEよりも優れた量子化ネットワークをトレーニングするための要素単位勾配スケーリング(EWGS)を提案する。
- 参考スコア(独自算出の注目度): 30.06895253269116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network quantization aims at reducing bit-widths of weights and/or
activations, particularly important for implementing deep neural networks with
limited hardware resources. Most methods use the straight-through estimator
(STE) to train quantized networks, which avoids a zero-gradient problem by
replacing a derivative of a discretizer (i.e., a round function) with that of
an identity function. Although quantized networks exploiting the STE have shown
decent performance, the STE is sub-optimal in that it simply propagates the
same gradient without considering discretization errors between inputs and
outputs of the discretizer. In this paper, we propose an element-wise gradient
scaling (EWGS), a simple yet effective alternative to the STE, training a
quantized network better than the STE in terms of stability and accuracy. Given
a gradient of the discretizer output, EWGS adaptively scales up or down each
gradient element, and uses the scaled gradient as the one for the discretizer
input to train quantized networks via backpropagation. The scaling is performed
depending on both the sign of each gradient element and an error between the
continuous input and discrete output of the discretizer. We adjust a scaling
factor adaptively using Hessian information of a network. We show extensive
experimental results on the image classification datasets, including CIFAR-10
and ImageNet, with diverse network architectures under a wide range of
bit-width settings, demonstrating the effectiveness of our method.
- Abstract(参考訳): ネットワーク量子化は、ウェイトと/またはアクティベーションのビット幅を減らすことを目的としている。
ほとんどの方法は、ストレートスルー推定器(STE)を用いて量子化されたネットワークを訓練し、離散化器の微分(すなわち円関数)を恒等関数に置き換えることでゼロ段階の問題を回避する。
STEを利用した量子化ネットワークは良好な性能を示したが、STEは離散化器の入力と出力の離散化誤差を考慮せずに、単純に同じ勾配を伝播する。
本稿では,steの代替として単純かつ効果的な要素方向勾配スケーリング(ewgs)を提案し,安定性と精度の観点からsteよりも優れた量子化ネットワークを訓練する。
離散化器出力の勾配が与えられると、ewgsは適応的に各勾配要素をスケールアップまたはダウンし、スケールド勾配を離散化器入力の1つとして、バックプロパゲーションを介して量子化されたネットワークを訓練する。
各勾配要素の符号と、離散化器の連続入力と離散出力の誤差の両方に応じてスケーリングを行う。
ネットワークのヘッセン情報を用いてスケーリング係数を適応的に調整する。
CIFAR-10 や ImageNet などの画像分類データセットに対して,幅広いビット幅環境下での多様なネットワークアーキテクチャを用いた実験を行い,提案手法の有効性を実証した。
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - QGait: Toward Accurate Quantization for Gait Recognition with Binarized Input [17.017127559393398]
バックプロパゲーション時の円関数の勾配をよりよくシミュレートする,微分可能なソフト量子化器を提案する。
これにより、ネットワークは微妙な入力摂動から学習することができる。
量子化エラーをシミュレートしながら収束を確保するためのトレーニング戦略をさらに洗練する。
論文 参考訳(メタデータ) (2024-05-22T17:34:18Z) - Adaptive Multilevel Neural Networks for Parametric PDEs with Error Estimation [0.0]
ニューラルネットワークアーキテクチャは高次元パラメータ依存偏微分方程式(pPDE)を解くために提示される
モデルデータのパラメータを対応する有限要素解にマッピングするために構築される。
適応有限要素法(AFEM)で生成される粗いグリッド解と一連の補正を出力する。
論文 参考訳(メタデータ) (2024-03-19T11:34:40Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - QuantNet: Learning to Quantize by Learning within Fully Differentiable
Framework [32.465949985191635]
本稿では,QuantNetというメタベースの量子化器を提案する。
本手法は, 勾配ミスマッチの問題を解決するだけでなく, 配置中の二項化操作による離散化誤差の影響を低減する。
論文 参考訳(メタデータ) (2020-09-10T01:41:05Z) - AUSN: Approximately Uniform Quantization by Adaptively Superimposing
Non-uniform Distribution for Deep Neural Networks [0.7378164273177589]
既存の一様および非一様量子化法は、表現範囲と表現解像度の間に固有の矛盾を示す。
重みとアクティベーションを定量化する新しい量子化法を提案する。
鍵となる考え方は、複数の非一様量子化値、すなわち AUSN を適応的に重ね合わせることで、ユニフォーム量子化を近似することである。
論文 参考訳(メタデータ) (2020-07-08T05:10:53Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - WaveQ: Gradient-Based Deep Quantization of Neural Networks through
Sinusoidal Adaptive Regularization [8.153944203144988]
深部量子化トレーニングのための新しい正弦波正則化SINAREQを提案する。
我々はSINAREQが計算効率と精度のバランスをとる方法を示し、多種多様な深層ネットワークの量子化のための異種ビット幅割り当てを提供する。
論文 参考訳(メタデータ) (2020-02-29T01:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。