論文の概要: Signed Binarization: Unlocking Efficiency Through Repetition-Sparsity
Trade-Off
- arxiv url: http://arxiv.org/abs/2312.01581v1
- Date: Mon, 4 Dec 2023 02:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 16:33:48.739163
- Title: Signed Binarization: Unlocking Efficiency Through Repetition-Sparsity
Trade-Off
- Title(参考訳): signed binarization: 反復分離トレードオフによる効率のアンロック
- Authors: Sachit Kuhar and Yash Jain and Alexey Tumanov
- Abstract要約: 本稿では,反復スパーシティートレードオフの概念を導入し,推論時の計算効率を説明する。
我々は,このトレードオフに対応するために,ハードウェア・ソフトウェアシステム,量子化関数,表現学習技術を統合した統合協調設計フレームワークであるSigned Binarizationを提案する。
提案手法は,実ハードウェア上で26%の高速化を実現し,エネルギー効率を2倍にし,ResNet 18の2進法に比べて密度を2.8倍削減する。
- 参考スコア(独自算出の注目度): 2.6144163646666945
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efficient inference of Deep Neural Networks (DNNs) on resource-constrained
edge devices is essential. Quantization and sparsity are key algorithmic
techniques that translate to repetition and sparsity within tensors at the
hardware-software interface. This paper introduces the concept of
repetition-sparsity trade-off that helps explain computational efficiency
during inference. We propose Signed Binarization, a unified co-design framework
that synergistically integrates hardware-software systems, quantization
functions, and representation learning techniques to address this trade-off.
Our results demonstrate that Signed Binarization is more accurate than
binarization with the same number of non-zero weights. Detailed analysis
indicates that signed binarization generates a smaller distribution of
effectual (non-zero) parameters nested within a larger distribution of total
parameters, both of the same type, for a DNN block. Finally, our approach
achieves a 26% speedup on real hardware, doubles energy efficiency, and reduces
density by 2.8x compared to binary methods for ResNet 18, presenting an
alternative solution for deploying efficient models in resource-limited
environments.
- Abstract(参考訳): 資源制約エッジデバイスに対するディープニューラルネットワーク(DNN)の効率的な推論が不可欠である。
量子化とスパーシリティ(英: Quantization and sparsity)は、ハードウェア・ソフトウェア・インタフェースにおけるテンソル内の繰り返しとスパーシティに変換する重要なアルゴリズム手法である。
本稿では,推論における計算効率の説明に役立つ繰り返しスパーシティートレードオフの概念を紹介する。
そこで我々は,ハードウェア・ソフトウェアシステム,量子化関数,表現学習技術を統合的に統合した統合共同設計フレームワークであるsigned binarizationを提案する。
以上の結果から,符号付き二項化は非零重みの2項化よりも精度が高いことが示された。
詳細な分析により、署名された二項化は、DNNブロックに対して、同じタイプの合計パラメータのより大きな分布内にネストされた効果(非ゼロ)パラメータのより小さな分布を生成する。
最後に,本手法は実ハードウェア上で26%の高速化を実現し,資源制限環境下での効率的なモデル展開のための代替ソリューションとして,ResNet 18のバイナリ手法と比較して密度を2.8倍に削減する。
関連論文リスト
- BiBench: Benchmarking and Analyzing Network Binarization [72.59760752906757]
ネットワークバイナライゼーションは、異常な計算とメモリ節約を提供する最も有望な圧縮手法の1つとして出現する。
精度劣化や効率制限といった双項化の一般的な課題は、その属性が完全には理解されていないことを示唆している。
ネットワークバイナライゼーションのための深度解析を用いた厳密に設計されたベンチマークであるBiBenchを提案する。
論文 参考訳(メタデータ) (2023-01-26T17:17:16Z) - Signed Binary Weight Networks [17.07866119979333]
2つの重要なアルゴリズム技術は、効率の良い推論を可能にすることを約束している。
本稿では,さらに効率を向上させるために,署名バイナリネットワークと呼ばれる新しい手法を提案する。
提案手法は,イメージネットとCIFAR10データセットの2進法で同等の精度を達成し,69%の空間性を実現する。
論文 参考訳(メタデータ) (2022-11-25T00:19:21Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - AdaBin: Improving Binary Neural Networks with Adaptive Binary Sets [27.022212653067367]
本稿では,重みとアクティベーションを共に1ビット値に分割したBNN(Binary Neural Networks)について検討する。
最適二元集合を適応的に得るために、AdaBin と呼ばれる単純で効果的なアプローチを提案する。
ベンチマークモデルとデータセットの実験結果は、提案されたAdaBinが最先端のパフォーマンスを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-17T05:43:33Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Bimodal Distributed Binarized Neural Networks [3.0778860202909657]
しかし、バイナリ化技術は、完全精度のものと比べれば、不適格な性能劣化に悩まされる。
バイモーダル分散バイナライゼーション法(メソッド名)を提案する。
これにより、ネットワーク重みのバイモーダルな分布がクルトーシス正規化によって引き起こされる。
論文 参考訳(メタデータ) (2022-04-05T06:07:05Z) - BiFSMN: Binary Neural Network for Keyword Spotting [47.46397208920726]
BiFSMNは、KWSのための正確かつ極効率のバイナリニューラルネットワークである。
実世界のエッジハードウェアにおいて,BiFSMNは22.3倍の高速化と15.5倍のストレージ節約を実現可能であることを示す。
論文 参考訳(メタデータ) (2022-02-14T05:16:53Z) - Distribution-sensitive Information Retention for Accurate Binary Neural
Network [49.971345958676196]
本稿では、前向きのアクティベーションと後向きの勾配の情報を保持するために、新しいDIR-Net(Distribution-sensitive Information Retention Network)を提案する。
我々のDIR-Netは、主流かつコンパクトなアーキテクチャの下で、SOTAバイナライゼーションアプローチよりも一貫して優れています。
我々は、実世界のリソース制限されたデバイス上でDIR-Netを行い、ストレージの11.1倍の節約と5.4倍のスピードアップを実現した。
論文 参考訳(メタデータ) (2021-09-25T10:59:39Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z) - High-Capacity Expert Binary Networks [56.87581500474093]
ネットワークバイナライゼーションは、効率的なディープモデルを作成するための、ハードウェア対応の有望な方向性である。
メモリと計算上の優位性にもかかわらず、バイナリモデルとその実数値モデルの間の精度のギャップを縮めることは、未解決の課題である。
本稿では,入力特徴に基づく時間に1つのデータ固有のエキスパートバイナリフィルタを選択することを学習することで,初めてバイナリネットワークに条件付きコンピューティングを適合させる専門家バイナリ畳み込みを提案する。
論文 参考訳(メタデータ) (2020-10-07T17:58:10Z) - WrapNet: Neural Net Inference with Ultra-Low-Resolution Arithmetic [57.07483440807549]
ニューラルネットワークをアキュムレータの低分解能(8ビット)加算に適応させ,32ビットのアキュムレータに匹敵する分類精度を実現する手法を提案する。
ソフトウェアプラットフォームとハードウェアプラットフォームの両方において、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-26T23:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。