論文の概要: A Learning Framework for n-bit Quantized Neural Networks toward FPGAs
- arxiv url: http://arxiv.org/abs/2004.02396v1
- Date: Mon, 6 Apr 2020 04:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:00:14.139268
- Title: A Learning Framework for n-bit Quantized Neural Networks toward FPGAs
- Title(参考訳): nビット量子化ニューラルネットワークのFPGAへの学習フレームワーク
- Authors: Jun Chen, Liang Liu, Yong Liu, Xianfang Zeng
- Abstract要約: 重みが2つのパワーに制約されるnビットQNNのための新しい学習フレームワークを提案する。
また,n-BQ-NNという新しいQNN構造も提案する。
SVPEを用いたN-BQ-NNは,ベクトル処理素子(VPE)よりも2.9倍高速に動作可能であることを示す。
- 参考スコア(独自算出の注目度): 20.83904734716565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quantized neural network (QNN) is an efficient approach for network
compression and can be widely used in the implementation of FPGAs. This paper
proposes a novel learning framework for n-bit QNNs, whose weights are
constrained to the power of two. To solve the gradient vanishing problem, we
propose a reconstructed gradient function for QNNs in back-propagation
algorithm that can directly get the real gradient rather than estimating an
approximate gradient of the expected loss. We also propose a novel QNN
structure named n-BQ-NN, which uses shift operation to replace the multiply
operation and is more suitable for the inference on FPGAs. Furthermore, we also
design a shift vector processing element (SVPE) array to replace all 16-bit
multiplications with SHIFT operations in convolution operation on FPGAs. We
also carry out comparable experiments to evaluate our framework. The
experimental results show that the quantized models of ResNet, DenseNet and
AlexNet through our learning framework can achieve almost the same accuracies
with the original full-precision models. Moreover, when using our learning
framework to train our n-BQ-NN from scratch, it can achieve state-of-the-art
results compared with typical low-precision QNNs. Experiments on Xilinx ZCU102
platform show that our n-BQ-NN with our SVPE can execute 2.9 times faster than
with the vector processing element (VPE) in inference. As the SHIFT operation
in our SVPE array will not consume Digital Signal Processings (DSPs) resources
on FPGAs, the experiments have shown that the use of SVPE array also reduces
average energy consumption to 68.7% of the VPE array with 16-bit.
- Abstract(参考訳): 量子化ニューラルネットワーク(QNN)は、ネットワーク圧縮の効率的なアプローチであり、FPGAの実装で広く利用することができる。
本稿では、重みが2のパワーに制約されるnビットqnnのための新しい学習フレームワークを提案する。
勾配消失問題を解決するために,予測損失の近似勾配を推定するのではなく,直接実勾配を得ることのできるバックプロパゲーションアルゴリズムにおけるqnnの再構成勾配関数を提案する。
また、n-bq-nn という新しいqnn構造を提案する。これはシフト演算を用いて乗算演算を置き換え、fpgaの推論により適している。
さらに,FPGA上での畳み込み操作において,全16ビット乗算を ShiFT 演算に置き換えるシフトベクトル処理素子(SVPE)を設計する。
フレームワークを評価するための比較実験も行っています。
実験の結果,学習フレームワークを通じてResNet,DenseNet,AlexNetの量子化モデルは,元の完全精度モデルとほぼ同じ精度で実現できることがわかった。
さらに,学習フレームワークを用いてN-BQ-NNをゼロからトレーニングすると,従来の低精度QNNと比較して最先端の結果が得られる。
Xilinx ZCU102 プラットフォーム上での実験では,SVPE を用いた n-BQ-NN がベクトル処理素子 (VPE) の推論よりも2.9 倍高速に実行可能であることが示された。
SVPEアレイのShift操作はFPGA上のデジタル信号処理(DSP)リソースを消費しないため、SVPEアレイを使用した場合、平均消費電力は16ビットのVPEアレイの68.7%に減少する。
関連論文リスト
- NeuraLUT: Hiding Neural Network Density in Boolean Synthesizable Functions [2.7086888205833968]
Field-Programmable Gate Array (FPGA)アクセラレータは、レイテンシとリソースクリティカルなDeep Neural Network (DNN)推論タスクの処理に成功している。
本稿では、ニューロンの境界を緩和し、サブネットワーク全体を単一のLUTにマッピングすることを提案する。
提案手法は,既知の遅延クリティカルタスク,ジェットサブストラクチャタグ,古典的コンピュータビジョンタスク,MNISTを用いた桁分類で検証する。
論文 参考訳(メタデータ) (2024-02-29T16:10:21Z) - Exploiting FPGA Capabilities for Accelerated Biomedical Computing [0.0]
本研究では、フィールドプログラマブルゲートアレイ(FPGA)を用いたECG信号解析のための高度なニューラルネットワークアーキテクチャを提案する。
我々は、トレーニングと検証にMIT-BIH Arrhythmia Databaseを使用し、堅牢性を改善するためにガウスノイズを導入した。
この研究は最終的に、様々なアプリケーションのためのFPGA上でのニューラルネットワーク性能を最適化するためのガイドを提供する。
論文 参考訳(メタデータ) (2023-07-16T01:20:17Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - Implementing Neural Network-Based Equalizers in a Coherent Optical
Transmission System Using Field-Programmable Gate Arrays [3.1543509940301946]
我々は、コヒーレント光伝送システムにおける非線形性補償のための、リカレントおよびフィードフォワードニューラルネットワーク(NN)ベースの等化器のオフラインFPGA実現について述べる。
主な結果は、性能比較、アクティベーション関数の実装方法の分析、ハードウェアの複雑さに関するレポートの3つに分けられる。
論文 参考訳(メタデータ) (2022-12-09T07:28:45Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - FracBNN: Accurate and FPGA-Efficient Binary Neural Networks with
Fractional Activations [20.218382369944152]
binary neural network (bnns) は1ビットの重みとアクティベーションを持つ。
BNNはImageNetのような現実的なデータセットの精度がはるかに低い傾向にある。
本研究では、BNNの精度を大幅に向上させるために分数活性化を利用するFracBNNを提案する。
論文 参考訳(メタデータ) (2020-12-22T17:49:30Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。