論文の概要: Efficient Computation Reduction in Bayesian Neural Networks Through
Feature Decomposition and Memorization
- arxiv url: http://arxiv.org/abs/2005.03857v1
- Date: Fri, 8 May 2020 05:03:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 11:48:53.341956
- Title: Efficient Computation Reduction in Bayesian Neural Networks Through
Feature Decomposition and Memorization
- Title(参考訳): 特徴分解と記憶によるベイズニューラルネットワークの効率的な計算量削減
- Authors: Xiaotao Jia, Jianlei Yang, Runze Liu, Xueyan Wang, Sorin Dan Cotofana,
Weisheng Zhao
- Abstract要約: 本稿では,計算コストを削減するため,効率的なBNN推論フローを提案する。
計算の約半分は従来の手法と比べて取り除くことができる。
We implement our approach in Verilog and synthesise it with 45 $nm$ FreePDK technology。
- 参考スコア(独自算出の注目度): 10.182119276564643
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bayesian method is capable of capturing real world
uncertainties/incompleteness and properly addressing the over-fitting issue
faced by deep neural networks. In recent years, Bayesian Neural Networks (BNNs)
have drawn tremendous attentions of AI researchers and proved to be successful
in many applications. However, the required high computation complexity makes
BNNs difficult to be deployed in computing systems with limited power budget.
In this paper, an efficient BNN inference flow is proposed to reduce the
computation cost then is evaluated by means of both software and hardware
implementations. A feature decomposition and memorization (\texttt{DM})
strategy is utilized to reform the BNN inference flow in a reduced manner.
About half of the computations could be eliminated compared to the traditional
approach that has been proved by theoretical analysis and software validations.
Subsequently, in order to resolve the hardware resource limitations, a
memory-friendly computing framework is further deployed to reduce the memory
overhead introduced by \texttt{DM} strategy. Finally, we implement our approach
in Verilog and synthesise it with 45 $nm$ FreePDK technology. Hardware
simulation results on multi-layer BNNs demonstrate that, when compared with the
traditional BNN inference method, it provides an energy consumption reduction
of 73\% and a 4$\times$ speedup at the expense of 14\% area overhead.
- Abstract(参考訳): ベイズ法は、現実世界の不確実性と不完全性を捉え、ディープニューラルネットワークが直面する過剰フィッティング問題に適切に対処することができる。
近年、ベイジアンニューラルネットワーク(BNN)はAI研究者の注目を集め、多くのアプリケーションで成功している。
しかし、高い計算複雑性が要求されるため、BNNは限られた電力予算で計算システムに展開することが困難である。
本稿では,計算コストを削減するため,効率的なBNN推論フローを提案し,ソフトウェア実装とハードウェア実装の両方を用いて評価する。
特徴分解および記憶化(\texttt{dm})戦略を用いて、bnn推論フローを縮小した方法で再構成する。
理論解析とソフトウェア検証によって証明された従来のアプローチと比較して、計算の約半分は排除できる。
その後、ハードウェアリソースの制限を解決するため、メモリフレンドリーなコンピューティングフレームワークがさらにデプロイされ、 \texttt{DM} 戦略によって導入されたメモリオーバーヘッドを低減する。
最後に,本手法をVerilog で実装し,45 nm の FreePDK 技術で合成する。
多層bnnのハードウェアシミュレーションの結果は、従来のbnn推定法と比較すると、エネルギー消費量の73\%と4$\times$のスピードアップを、14\%のオーバーヘッドを犠牲にして提供することを示している。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - ZOBNN: Zero-Overhead Dependable Design of Binary Neural Networks with Deliberately Quantized Parameters [0.0]
本稿では,低精度ニューラルネットワークの3番目の利点として,耐故障性の改善について紹介する。
本稿では,メモリ障害がBNN(State-of-the-art binary neural network)に与える影響を包括的解析により検討する。
本稿では,新しい均一量子化手法により,フロートパラメータの範囲を制限することにより,BNNの信頼性を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-07-06T05:31:11Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - QVIP: An ILP-based Formal Verification Approach for Quantized Neural
Networks [14.766917269393865]
量子化は、浮動小数点数に匹敵する精度でニューラルネットワークのサイズを減らすための有望な技術として登場した。
そこで本研究では,QNNに対する新しい,効率的な形式検証手法を提案する。
特に、QNNの検証問題を整数線形制約の解法に還元する符号化を初めて提案する。
論文 参考訳(メタデータ) (2022-12-10T03:00:29Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。