論文の概要: Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration
- arxiv url: http://arxiv.org/abs/2106.09886v1
- Date: Fri, 18 Jun 2021 03:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:08:14.455966
- Title: Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration
- Title(参考訳): 1, +1}エンコード分解と高速化による量子ニューラルネットワーク
- Authors: Qigong Sun, Xiufang Li, Fanhua Shang, Hongying Liu, Kang Yang, Licheng
Jiao, and Zhouchen Lin
- Abstract要約: 本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
- 参考スコア(独自算出の注目度): 83.84684675841167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training of deep neural networks (DNNs) always requires intensive
resources for both computation and data storage. Thus, DNNs cannot be
efficiently applied to mobile phones and embedded devices, which severely
limits their applicability in industrial applications. To address this issue,
we propose a novel encoding scheme using {-1, +1} to decompose quantized neural
networks (QNNs) into multi-branch binary networks, which can be efficiently
implemented by bitwise operations (i.e., xnor and bitcount) to achieve model
compression, computational acceleration, and resource saving. By using our
method, users can achieve different encoding precisions arbitrarily according
to their requirements and hardware resources. The proposed mechanism is highly
suitable for the use of FPGA and ASIC in terms of data storage and computation,
which provides a feasible idea for smart chips. We validate the effectiveness
of our method on large-scale image classification (e.g., ImageNet), object
detection, and semantic segmentation tasks. In particular, our method with
low-bit encoding can still achieve almost the same performance as its high-bit
counterparts.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のトレーニングは常に、計算とデータストレージの両方に集約的なリソースを必要とする。
したがって、DNNは携帯電話や組み込みデバイスに効率的に適用することはできない。
そこで本研究では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解し,ビットワイズ演算(xnorとbitcount)により効率よく実装し,モデル圧縮,計算加速度,資源節約を実現する, {-1, +1} を用いた新しい符号化方式を提案する。
本手法を用いることで,ユーザの要求やハードウェアリソースに応じて,任意の符号化精度を実現することができる。
提案手法は,データストレージと計算の面でFPGAとASICの利用に非常に適しており,スマートチップに実現可能なアイデアを提供する。
本研究では,大規模画像分類(イメージネットなど),物体検出,意味セグメンテーションタスクにおいて,提案手法の有効性を検証する。
特に,低ビット符号化方式では,ハイビット符号化方式とほぼ同じ性能が得られる。
関連論文リスト
- Tiled Bit Networks: Sub-Bit Neural Network Compression Through Reuse of Learnable Binary Vectors [4.95475852994362]
本稿では,バイナリ重み付きニューラルネットワークのサブビット圧縮を実現するために,ビット列を持つタイル型ニューラルネットワーク層に対する新しい量子化方式を提案する。
私たちは完全に接続された層と畳み込み層の両方にアプローチを採用しています。
論文 参考訳(メタデータ) (2024-07-16T15:55:38Z) - Input Layer Binarization with Bit-Plane Encoding [4.872439392746007]
本稿では,入力データの8ビット表現を直接利用して,第1層をバイナライズする手法を提案する。
得られたモデルは完全にバイナライズされ、第1層バイナライズアプローチはモデル独立です。
論文 参考訳(メタデータ) (2023-05-04T14:49:07Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors [0.0]
ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、疾患の診断や自動運転など、多くの応用分野が活用されています。
論文 参考訳(メタデータ) (2021-04-19T12:50:27Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Towards Lossless Binary Convolutional Neural Networks Using Piecewise
Approximation [4.023728681102073]
CNNは算術演算の数とメモリストレージのサイズを大幅に減らすことができる。
しかし、単一のバイナリCNNと複数のバイナリCNNの精度劣化は、現代のアーキテクチャでは受け入れられない。
完全精度の重みとアクティベーションを近似することにより、精度の低下を低減できる複数のバイナリCNNに対するPiecewise Approximationスキームを提案する。
論文 参考訳(メタデータ) (2020-08-08T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。