論文の概要: Up or Down? Adaptive Rounding for Post-Training Quantization
- arxiv url: http://arxiv.org/abs/2004.10568v2
- Date: Tue, 30 Jun 2020 09:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:02:01.998906
- Title: Up or Down? Adaptive Rounding for Post-Training Quantization
- Title(参考訳): アップかダウンか?
ポストトレーニング量子化のための適応ラウンドリング
- Authors: Markus Nagel, Rana Ali Amjad, Mart van Baalen, Christos Louizos,
Tijmen Blankevoort
- Abstract要約: 学習後量子化のためのより優れた重み付き機構であるAdaRoundを提案する。
AdaRoundは高速で、ネットワークの微調整を必要としない。
- 参考スコア(独自算出の注目度): 27.376486198998027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When quantizing neural networks, assigning each floating-point weight to its
nearest fixed-point value is the predominant approach. We find that, perhaps
surprisingly, this is not the best we can do. In this paper, we propose
AdaRound, a better weight-rounding mechanism for post-training quantization
that adapts to the data and the task loss. AdaRound is fast, does not require
fine-tuning of the network, and only uses a small amount of unlabelled data. We
start by theoretically analyzing the rounding problem for a pre-trained neural
network. By approximating the task loss with a Taylor series expansion, the
rounding task is posed as a quadratic unconstrained binary optimization
problem. We simplify this to a layer-wise local loss and propose to optimize
this loss with a soft relaxation. AdaRound not only outperforms
rounding-to-nearest by a significant margin but also establishes a new
state-of-the-art for post-training quantization on several networks and tasks.
Without fine-tuning, we can quantize the weights of Resnet18 and Resnet50 to 4
bits while staying within an accuracy loss of 1%.
- Abstract(参考訳): ニューラルネットワークの量子化では、各浮動小数点重みを最も近い固定点値に割り当てることが主なアプローチである。
驚くことに、これは最善の方法ではないことが分かっています。
本稿では,データとタスク損失に適応する,学習後量子化のためのより優れた重み付き機構であるAdaRoundを提案する。
AdaRoundは高速で、ネットワークの微調整を必要としない。
まず,事前学習したニューラルネットワークの丸め問題を理論的に解析する。
テイラー級数展開でタスク損失を近似することにより、丸めタスクは2次非制約バイナリ最適化問題として表される。
これをレイヤ単位での局所的な損失に単純化し、ソフトリラクゼーションでこの損失を最適化する提案を行う。
AdaRoundは、ラウンド・トゥ・アレストを大きなマージンで上回るだけでなく、いくつかのネットワークやタスクで量子化を後トレーニングするための新しい最先端技術を確立している。
微調整がなければ、resnet18とresnet50の重みを1%の精度損失に保ちながら4ビットまで定量化することができる。
関連論文リスト
- Towards Generalized Entropic Sparsification for Convolutional Neural Networks [0.0]
畳み込みニューラルネットワーク(CNN)は過度にパラメータ化されていると報告されている。
本稿では,計算可能エントロピー緩和を目的とした数学的アイデアに基づく層間データ駆動プルーニング手法を提案する。
スパースサブネットワークは、ネットワークエントロピー最小化をスペーサ性制約として使用した、事前訓練された(フル)CNNから得られる。
論文 参考訳(メタデータ) (2024-04-06T21:33:39Z) - Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting [13.270381125055275]
本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
論文 参考訳(メタデータ) (2023-12-17T02:31:20Z) - Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Iterative Training: Finding Binary Weight Deep Neural Networks with
Layer Binarization [0.0]
低レイテンシやモバイルアプリケーションでは、計算量の削減、メモリフットプリントの削減、エネルギー効率の向上が望まれている。
重み二項化の最近の研究は、重み-入出力行列の乗法を加算に置き換えている。
完全二進法ではなく部分二進法の重み付けから、トレーニングがより優れた精度で完全二進法の重み付けネットワークに到達することを実証的に示す。
論文 参考訳(メタデータ) (2021-11-13T05:36:51Z) - n-hot: Efficient bit-level sparsity for powers-of-two neural network
quantization [0.0]
パワーオブツー(PoT)量子化は、リソース制約ハードウェア上でのディープニューラルネットワークのビット演算数を減少させる。
PoT量子化は、表現能力が限られているため、深刻な精度低下を引き起こす。
メモリ効率の高い方法で精度とコストを両立した効率的なPoT量子化方式を提案する。
論文 参考訳(メタデータ) (2021-03-22T10:13:12Z) - SiMaN: Sign-to-Magnitude Network Binarization [165.5630656849309]
重みバイナライゼーションは、高倍率重みを+1s、0sに符号化することで分析ソリューションを提供する。
二元化ネットワークの学習重みは、エントロピーを許さないラプラシアン分布に概ね従うことが証明される。
CIFAR-10 と ImageNet を用いて,シマナライゼーション (SiMaN) と呼ばれる手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-16T07:03:51Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Weight Equalizing Shift Scaler-Coupled Post-training Quantization [0.5936318628878774]
トレーニング後、レイヤワイドの量子化が望ましいのは、再トレーニングが不要で、ハードウェアフレンドリーであるからである。
ニューラルネットワークモデルがチャネルあたりのウェイト範囲に大きな違いがある場合、精度の低下が発生します。
本研究では,4ビットのバイナリシフトでチャネルごとの重み範囲を再スケーリングする,新しい重み等化シフトスケーラを提案する。
論文 参考訳(メタデータ) (2020-08-13T09:19:57Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。