論文の概要: Design Challenges of Neural Network Acceleration Using Stochastic
Computing
- arxiv url: http://arxiv.org/abs/2006.05352v1
- Date: Mon, 8 Jun 2020 16:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:46:39.127688
- Title: Design Challenges of Neural Network Acceleration Using Stochastic
Computing
- Title(参考訳): 確率計算を用いたニューラルネットワーク加速の設計課題
- Authors: Alireza Khadem
- Abstract要約: 本報告では,モノのインターネット(IoT)のための2つの提案されたNN設計を評価し,比較する。
MNIST-5 NN モデルを実行する場合,BISC は他のアーキテクチャよりも優れていることがわかった。
解析とシミュレーション実験により,このアーキテクチャは50倍,5.7倍,7.8倍,1.8倍の電力を消費することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The enormous and ever-increasing complexity of state-of-the-art neural
networks (NNs) has impeded the deployment of deep learning on resource-limited
devices such as the Internet of Things (IoTs). Stochastic computing exploits
the inherent amenability to approximation characteristic of NNs to reduce their
energy and area footprint, two critical requirements of small embedded devices
suitable for the IoTs. This report evaluates and compares two recently proposed
stochastic-based NN designs, referred to as BISC (Binary Interfaced Stochastic
Computing) by Sim and Lee, 2017, and ESL (Extended Stochastic Logic) by Canals
et al., 2016. Using analysis and simulation, we compare three distinct
implementations of these designs in terms of performance, power consumption,
area, and accuracy. We also discuss the overall challenges faced in adopting
stochastic computing for building NNs. We find that BISC outperforms the other
architectures when executing the LeNet-5 NN model applied to the MNIST digit
recognition dataset. Our analysis and simulation experiments indicate that this
architecture is around 50X faster, occupies 5.7X and 2.9X less area, and
consumes 7.8X and 1.8X less power than the two ESL architectures.
- Abstract(参考訳): 最先端のニューラルネットワーク(NN)の巨大で絶え間なく増加する複雑さは、IoT(Internet of Things)のようなリソース制限されたデバイスへのディープラーニングの展開を妨げる。
確率コンピューティングは、NNの近似特性に固有のアメニビリティを活用して、そのエネルギーと面積のフットプリントを削減し、IoTに適した小さな組み込みデバイスに対する2つの重要な要件である。
本報告では,最近提案された2つの確率的nn設計について,sim and leeによるbisc (binary interfaced stochastic computing) とcanals et al.によるesl (extended stochastic logic) を比較し,比較する。
解析とシミュレーションを用いて, 性能, 消費電力, 面積, 精度という観点から, これら設計の3つの異なる実装を比較した。
また、NN構築に確率計算を採用する際の全体的な課題についても論じる。
BISC は MNIST 桁認識データセットに適用した LeNet-5 NN モデルの実行時に他のアーキテクチャよりも優れることがわかった。
解析とシミュレーションの結果、このアーキテクチャは50倍速く、面積は5.7倍と2.9倍小さく、2つのeslアーキテクチャよりも7.8倍と1.8倍の電力消費があることがわかった。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Energy-Aware FPGA Implementation of Spiking Neural Network with LIF Neurons [0.5243460995467893]
スパイキングニューラルネットワーク(SNN)は、TinyMLの最先端ソリューションとして際立っている。
本稿では,第1次Leaky Integrate-and-Fire(LIF)ニューロンモデルに基づく新しいSNNアーキテクチャを提案する。
ハードウェアフレンドリーなLIF設計も提案され、Xilinx Artix-7 FPGA上で実装されている。
論文 参考訳(メタデータ) (2024-11-03T16:42:10Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Bayesian Inference Accelerator for Spiking Neural Networks [3.145754107337963]
スパイキングニューラルネットワーク(SNN)は、計算面積と電力を減らす可能性がある。
本研究では,効率的なベイズSNNをハードウェア上で開発・実装するための最適化フレームワークについて述べる。
我々は、完全精度のベルヌーイパラメータを持つベイジアンバイナリネットワークに匹敵するアキュラ級数を示し、最大25時間分のスパイクを減らした。
論文 参考訳(メタデータ) (2024-01-27T16:27:19Z) - Quantization-aware Neural Architectural Search for Intrusion Detection [5.010685611319813]
本稿では、最先端NNの1000倍の規模を持つ量子化ニューラルネットワーク(NN)モデルを自動的に訓練し、進化させる設計手法を提案する。
FPGAにデプロイする際にこのネットワークが利用するLUTの数は2.3倍から8.5倍と小さく、性能は以前の作業に匹敵する。
論文 参考訳(メタデータ) (2023-11-07T18:35:29Z) - Energy-Efficient On-Board Radio Resource Management for Satellite
Communications via Neuromorphic Computing [59.40731173370976]
本研究は,エネルギー効率のよい脳誘発機械学習モデルのオンボード無線リソース管理への応用について検討する。
関連するワークロードでは、Loihi 2に実装されたスパイクニューラルネットワーク(SNN)の方が精度が高く、CNNベースのリファレンスプラットフォームと比較して消費電力が100ドル以上削減される。
論文 参考訳(メタデータ) (2023-08-22T03:13:57Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。