論文の概要: FleXOR: Trainable Fractional Quantization
- arxiv url: http://arxiv.org/abs/2009.04126v2
- Date: Thu, 22 Oct 2020 06:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 08:46:24.155732
- Title: FleXOR: Trainable Fractional Quantization
- Title(参考訳): FleXOR: トレーニング可能なフラクショナル量子化
- Authors: Dongsoo Lee, Se Jung Kwon, Byeongwook Kim, Yongkweon Jeon, Baeseong
Park and Jeongin Yun
- Abstract要約: 2進符号に基づく量子化が注目されているのは、各量子化ビットを復号化せずに直接計算に利用することができるためである。
しかし、以前の試みでは量子化ビットの整数数しか許されず、最終的に圧縮比と精度の探索空間を制限した。
本稿では,量子化重みを圧縮し,各重みあたりのビット数の分数を求める暗号化アルゴリズム/アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 8.090330715662962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantization based on the binary codes is gaining attention because each
quantized bit can be directly utilized for computations without dequantization
using look-up tables. Previous attempts, however, only allow for integer
numbers of quantization bits, which ends up restricting the search space for
compression ratio and accuracy. In this paper, we propose an encryption
algorithm/architecture to compress quantized weights so as to achieve
fractional numbers of bits per weight. Decryption during inference is
implemented by digital XOR-gate networks added into the neural network model
while XOR gates are described by utilizing $\tanh(x)$ for backward propagation
to enable gradient calculations. We perform experiments using MNIST, CIFAR-10,
and ImageNet to show that inserting XOR gates learns quantization/encrypted bit
decisions through training and obtains high accuracy even for fractional sub
1-bit weights. As a result, our proposed method yields smaller size and higher
model accuracy compared to binary neural networks.
- Abstract(参考訳): 2進法に基づく量子化が注目されているのは、各量子化ビットがルックアップテーブルを使用して復号化することなく直接計算に利用できるためである。
しかし、以前の試みでは量子化ビットの整数数のみを許容しており、圧縮比と精度の検索空間を制限している。
本稿では,量子化重みを圧縮し,各重みあたりのビット数の分数を求める暗号化アルゴリズム/アーキテクチャを提案する。
推論中の復号化は、ニューラルネットワークモデルに付加されたデジタルXORゲートネットワークによって実装され、XORゲートは、後方伝播のために$\tanh(x)$を利用して勾配計算を可能にする。
mnist,cifar-10,imagenetを用いて実験を行い,xorゲートの挿入がトレーニングによって量子化/暗号化されたビット決定を学習し,分数サブ1ビットの重みでも高い精度が得られることを示す。
その結果,提案手法は,バイナリニューラルネットワークよりも小型でモデル精度が高いことがわかった。
関連論文リスト
- MST-compression: Compressing and Accelerating Binary Neural Networks
with Minimum Spanning Tree [21.15961593182111]
エッジコンピューティングデバイスにおける計算コストとメモリストレージを削減するために、バイナリニューラルネットワーク(BNN)が広く採用されている。
しかしながら、ニューラルネットワークが精度を向上し、実用的な要件を満たすためにより広く、より深くなるにつれて、計算の負担はバイナリバージョンにおいても大きな課題である。
本稿では,BNNの圧縮と高速化を学習する,最小スパンニングツリー(MST)圧縮法を提案する。
論文 参考訳(メタデータ) (2023-08-26T02:42:12Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - DyBit: Dynamic Bit-Precision Numbers for Efficient Quantized Neural
Network Inference [28.912023025671868]
この作業は、DyBitと呼ばれる可変長エンコーディングを持つ適応データ表現をターゲットにしている。
また,予測精度と高速化をトレードオフする混合精度加速器を備えたハードウェア対応量子化フレームワークを提案する。
実験の結果、DyBitによる推論精度は4ビット量子化の最先端よりも1.997%高いことがわかった。
論文 参考訳(メタデータ) (2023-02-24T08:46:01Z) - Quantum Sparse Coding [5.130440339897477]
我々はスパース符号化のための量子インスピレーション付きアルゴリズムを開発した。
量子コンピュータとイジングマシンの出現は、より正確な推定につながる可能性がある。
我々はLightrの量子インスパイアされたデジタルプラットフォーム上でシミュレーションデータを用いて数値実験を行う。
論文 参考訳(メタデータ) (2022-09-08T13:00:30Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Bayesian Bits: Unifying Quantization and Pruning [73.27732135853243]
我々は、勾配に基づく最適化による混合精度量子化とプルーニングの実用的な方法であるBayesian Bitsを紹介する。
提案手法をいくつかのベンチマーク・データセット上で実験的に検証し,プレナード付き混合精度ネットワークを学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-14T16:00:34Z) - Least squares binary quantization of neural networks [19.818087225770967]
値が-1と1にマップされる二項量子化に焦点を当てる。
2ビット対1ビット量子化のパリト最適性に触発されて、証明可能な最小二乗誤差を持つ新しい2ビット量子化を導入する。
論文 参考訳(メタデータ) (2020-01-09T00:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。