論文の概要: Exact Backpropagation in Binary Weighted Networks with Group Weight
Transformations
- arxiv url: http://arxiv.org/abs/2107.01400v1
- Date: Sat, 3 Jul 2021 10:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 09:21:55.279408
- Title: Exact Backpropagation in Binary Weighted Networks with Group Weight
Transformations
- Title(参考訳): 群重み変換をもつ二元重み付きネットワークにおける厳密なバックプロパゲーション
- Authors: Yaniv Shulman
- Abstract要約: 量子化に基づくモデル圧縮は、推論のためのハイパフォーマンスで高速なアプローチとして機能する。
重みをバイナリ値に制限するモデルは、ユビキタスドット製品の効率的な実装を可能にします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantization based model compression serves as high performing and fast
approach for inference that yields highly compressed models compared to their
full-precision floating point counterparts. The most extreme quantization is a
1-bit representation of parameters such that they have only two possible
values, typically -1(0) or +1. Models that constrain the weights to binary
values enable efficient implementation of the ubiquitous dot product by
additions only without requiring floating point multiplications which is
beneficial for resources constrained inference. The main contribution of this
work is the introduction of a method to smooth the combinatorial problem of
determining a binary vector of weights to minimize the expected loss for a
given objective by means of empirical risk minimization with backpropagation.
This is achieved by approximating a multivariate binary state over the weights
utilizing a deterministic and differentiable transformation of real-valued
continuous parameters. The proposed method adds little overhead in training,
can be readily applied without any substantial modifications to the original
architecture, does not introduce additional saturating non-linearities or
auxiliary losses, and does not prohibit applying other methods for binarizing
the activations. It is demonstrated that contrary to common assertions made in
the literature, binary weighted networks can train well with the same standard
optimization techniques and similar hyperparameters settings as their
full-precision counterparts, namely momentum SGD with large learning rates and
$L_2$ regularization. The source code is publicly available at
https://bitbucket.org/YanivShu/binary_weighted_networks_public
- Abstract(参考訳): 量子化に基づくモデル圧縮は、精度の高い浮動小数点に対して高い圧縮されたモデルをもたらす推論のための高性能で高速なアプローチとして機能する。
最も極端な量子化はパラメータの 1 ビット表現であり、通常は -1(0) または +1 の 2 つの値しか持たない。
重みをバイナリ値に制限するモデルは、リソース制約付き推論に有用である浮動小数点乗算を必要とせずに、ユビキタスドット製品の実装を効率的に行うことができる。
この研究の主な貢献は、経験的リスク最小化とバックプロパゲーションによって与えられた目的に対する期待損失を最小限に抑えるために、重みの2進ベクトルを決定する組合せ問題を円滑に行う方法の導入である。
これは、実数値連続パラメータの決定論的かつ微分可能な変換を利用して重み付け上の多変量二項状態の近似によって達成される。
提案手法はトレーニングのオーバーヘッドを少なくし、元のアーキテクチャに実質的な変更を加えることなく容易に適用でき、飽和した非線型性や補助的な損失を導入せず、アクティベーションをバイナライズするための他の方法の適用も禁止しない。
文献における一般的な主張とは対照的に、二元重み付きネットワークは、学習率の高い運動量SGDと、正規化の$L_2$の標準最適化手法と、それと同等のハイパーパラメータ設定で、うまくトレーニングすることができる。
ソースコードはhttps://bitbucket.org/YanivShu/binary_weighted_networks_publicで公開されている。
関連論文リスト
- NUPES : Non-Uniform Post-Training Quantization via Power Exponent Search [7.971065005161565]
量子化は浮動小数点表現を低ビット幅の固定点表現に変換する技術である。
量子化空間全体にわたって新しい量子化重みを学習する方法を示す。
本研究では,データフリーとデータ駆動の両構成において,最先端の圧縮率を実現する手法の有効性を示す。
論文 参考訳(メタデータ) (2023-08-10T14:19:58Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - AdaBin: Improving Binary Neural Networks with Adaptive Binary Sets [27.022212653067367]
本稿では,重みとアクティベーションを共に1ビット値に分割したBNN(Binary Neural Networks)について検討する。
最適二元集合を適応的に得るために、AdaBin と呼ばれる単純で効果的なアプローチを提案する。
ベンチマークモデルとデータセットの実験結果は、提案されたAdaBinが最先端のパフォーマンスを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-17T05:43:33Z) - Monarch: Expressive Structured Matrices for Efficient and Accurate
Training [64.6871423399431]
大規模なニューラルネットワークは多くのドメインで優れているが、トレーニングや微調整は高価である。
計算やメモリ要件を減らすための一般的なアプローチは、重み付け行列を構造化行列に置き換えることである。
ハードウェア効率のよい行列(Monarch)のクラスを提案する。
論文 参考訳(メタデータ) (2022-04-01T17:37:29Z) - Bias-Variance Tradeoffs in Single-Sample Binary Gradient Estimators [100.58924375509659]
ストレートスルー (ST) 推定器はその単純さと効率性から人気を得た。
計算の複雑さを低く保ちながら、STよりも改善するいくつかの手法が提案された。
我々は、トレードオフを理解し、元来主張された特性を検証するために、これらの手法のバイアスとばらつきの理論解析を行う。
論文 参考訳(メタデータ) (2021-10-07T15:16:07Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Binarized Weight Error Networks With a Transition Regularization Term [4.56877715768796]
本論文では,資源効率の高いニューラル構造のための新しい重み付き重みネットワーク(BT)を提案する。
提案モデルでは, 近似誤差を考慮した重みの2値表現を, 追加項で推定する。
全てのしきい値に基づく二値精度ネットワークに適した新しい正規化項が導入された。
論文 参考訳(メタデータ) (2021-05-09T10:11:26Z) - Preprint: Norm Loss: An efficient yet effective regularization method
for deep neural networks [7.214681039134488]
斜め多様体に基づく重み付き軟規則化法を提案する。
本手法は, CIFAR-10, CIFAR-100, ImageNet 2012データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-03-11T10:24:49Z) - QuantNet: Learning to Quantize by Learning within Fully Differentiable
Framework [32.465949985191635]
本稿では,QuantNetというメタベースの量子化器を提案する。
本手法は, 勾配ミスマッチの問題を解決するだけでなく, 配置中の二項化操作による離散化誤差の影響を低減する。
論文 参考訳(メタデータ) (2020-09-10T01:41:05Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Multi-Objective Matrix Normalization for Fine-grained Visual Recognition [153.49014114484424]
双線形プールは細粒度視覚認識(FGVC)において大きな成功を収める
近年,行列パワー正規化は双線形特徴量において2次情報を安定化させることができることが示されている。
両線形表現を同時に正規化できる効率的な多目的行列正規化法(MOMN)を提案する。
論文 参考訳(メタデータ) (2020-03-30T08:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。