論文の概要: Neural Networks with Quantization Constraints
- arxiv url: http://arxiv.org/abs/2210.15623v1
- Date: Thu, 27 Oct 2022 17:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:55:44.594102
- Title: Neural Networks with Quantization Constraints
- Title(参考訳): 量子化制約付きニューラルネットワーク
- Authors: Ignacio Hounie, Juan Elenter, Alejandro Ribeiro
- Abstract要約: 量子化学習における制約付き学習手法を提案する。
結果の問題は強い双対であり、勾配推定は不要であることを示す。
提案手法は画像分類タスクにおける競合性能を示す。
- 参考スコア(独自算出の注目度): 111.42313650830248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enabling low precision implementations of deep learning models, without
considerable performance degradation, is necessary in resource and latency
constrained settings. Moreover, exploiting the differences in sensitivity to
quantization across layers can allow mixed precision implementations to achieve
a considerably better computation performance trade-off. However,
backpropagating through the quantization operation requires introducing
gradient approximations, and choosing which layers to quantize is challenging
for modern architectures due to the large search space. In this work, we
present a constrained learning approach to quantization aware training. We
formulate low precision supervised learning as a constrained optimization
problem, and show that despite its non-convexity, the resulting problem is
strongly dual and does away with gradient estimations. Furthermore, we show
that dual variables indicate the sensitivity of the objective with respect to
constraint perturbations. We demonstrate that the proposed approach exhibits
competitive performance in image classification tasks, and leverage the
sensitivity result to apply layer selective quantization based on the value of
dual variables, leading to considerable performance improvements.
- Abstract(参考訳): リソースやレイテンシに制約のある設定では,ディープラーニングモデルの低精度実装を実現する必要がある。
さらに、層間の量子化に対する感度の違いを利用することで、混合精度の実装により、計算性能のトレードオフを大幅に改善することができる。
しかし、量子化演算によるバックプロパゲーションには勾配近似の導入が必要であり、探索空間が大きいため現代のアーキテクチャではどの層を量子化するべきかが難しい。
本稿では,量子化を意識した学習に制約のある学習手法を提案する。
低精度教師付き学習を制約付き最適化問題として定式化し、非凸性にもかかわらず、結果の問題は強い双対であり、勾配推定は不要であることを示す。
さらに,双対変数は制約摂動に対する対象の感度を示すことを示した。
提案手法は,画像分類タスクにおいて競合性能を示し,感度を生かして双対変数の値に基づく層選択的量子化を適用することにより,相当な性能向上が期待できることを示す。
関連論文リスト
- Q-VLM: Post-training Quantization for Large Vision-Language Models [73.19871905102545]
本稿では,大規模視覚言語モデル(LVLM)の学習後量子化フレームワークを提案する。
視覚言語モデル全体の離散化誤差に大きな影響を及ぼす層間依存関係を抽出し、この依存関係を最適な量子化戦略に組み込む。
実験の結果,提案手法はメモリを2.78倍圧縮し,出力速度を約13B LLaVAモデルで1.44倍向上させることができた。
論文 参考訳(メタデータ) (2024-10-10T17:02:48Z) - QGait: Toward Accurate Quantization for Gait Recognition with Binarized Input [17.017127559393398]
バックプロパゲーション時の円関数の勾配をよりよくシミュレートする,微分可能なソフト量子化器を提案する。
これにより、ネットワークは微妙な入力摂動から学習することができる。
量子化エラーをシミュレートしながら収束を確保するためのトレーニング戦略をさらに洗練する。
論文 参考訳(メタデータ) (2024-05-22T17:34:18Z) - Gradient constrained sharpness-aware prompt learning for vision-language
models [99.74832984957025]
本稿では,視覚言語モデル(VLM)の一般化可能な即時学習における新たなトレードオフ問題を提案する。
最先端手法のロスランドスケープとSAMに基づくバニラシャープネス認識最小化法を解析することにより、トレードオフ性能は損失値と損失シャープネスの両方に相関していると結論付けた。
本稿では,GCSCoOp (Gradient Constrained Sharpness-Aware Context Optimization) と表記される,素早い学習のためのSAMベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T17:13:54Z) - Augmenting Hessians with Inter-Layer Dependencies for Mixed-Precision
Post-Training Quantization [7.392278887917975]
本稿では,ネットワーク上のテンソルに異なる数値精度を割り当てる混合精度ポストトレーニング量子化手法を提案する。
実験では,16ビットベースラインの25.48%$,21.69%$,33.28%$に対して,レイテンシの低減を実証した。
論文 参考訳(メタデータ) (2023-06-08T02:18:58Z) - DAQ: Distribution-Aware Quantization for Deep Image Super-Resolution
Networks [49.191062785007006]
画像超解像のための深い畳み込みニューラルネットワークの定量化は、計算コストを大幅に削減する。
既存の作業は、4ビット以下の超低精度の厳しい性能低下に苦しむか、または性能を回復するために重い微調整プロセスを必要とします。
高精度なトレーニングフリー量子化を実現する新しい分散認識量子化方式(DAQ)を提案する。
論文 参考訳(メタデータ) (2020-12-21T10:19:42Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。