論文の概要: Reliability-Performance Trade-offs in Neuromorphic Computing
- arxiv url: http://arxiv.org/abs/2009.12672v1
- Date: Sat, 26 Sep 2020 19:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:53:52.863041
- Title: Reliability-Performance Trade-offs in Neuromorphic Computing
- Title(参考訳): ニューロモルフィックコンピューティングにおける信頼性-性能トレードオフ
- Authors: Twisha Titirsha and Anup Das
- Abstract要約: 非揮発性メモリ(NVM)で構築されたニューロモルフィックアーキテクチャは、スパイキングニューラルネットワーク(SNN)で設計された機械学習タスクのエネルギー効率を大幅に改善する。
寄生電圧低下は, クロスバー内のNVMセルのプログラミング速度と信頼性において, 顕著な非対称性を生じさせる。
ニューロモルフィックアーキテクチャにおけるこの非対称性は信頼性と性能のトレードオフを生み出し、SNNマッピング技術を用いて効率的に利用することができる。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuromorphic architectures built with Non-Volatile Memory (NVM) can
significantly improve the energy efficiency of machine learning tasks designed
with Spiking Neural Networks (SNNs). A major source of voltage drop in a
crossbar of these architectures are the parasitic components on the crossbar's
bitlines and wordlines, which are deliberately made longer to achieve lower
cost-per-bit. We observe that the parasitic voltage drops create a significant
asymmetry in programming speed and reliability of NVM cells in a crossbar.
Specifically, NVM cells that are on shorter current paths are faster to program
but have lower endurance than those on longer current paths, and vice versa.
This asymmetry in neuromorphic architectures create reliability-performance
trade-offs, which can be exploited efficiently using SNN mapping techniques. In
this work, we demonstrate such trade-offs using a previously-proposed SNN
mapping technique with 10 workloads from contemporary machine learning tasks
for a state-of-the art neuromoorphic hardware.
- Abstract(参考訳): 非揮発性メモリ(NVM)で構築されたニューロモルフィックアーキテクチャは、スパイキングニューラルネットワーク(SNN)で設計された機械学習タスクのエネルギー効率を大幅に向上させることができる。
これらのアーキテクチャのクロスバーにおける電圧降下の主な原因は、クロスバーのビットラインとワードラインの寄生成分であり、ビットあたりのコストを下げるために意図的に長くなる。
寄生電圧低下は, クロスバー内のNVMセルのプログラミング速度と信頼性において重要な非対称性を生じさせる。
具体的には、より短い電流経路にあるNVM細胞は、プログラムが高速であるが、より長い電流経路にある細胞よりも持続性が低い。
ニューロモルフィックアーキテクチャにおけるこの非対称性は信頼性と性能のトレードオフを生み出し、SNNマッピング技術を用いて効率的に利用することができる。
本研究では,従来提案されていたSNNマッピング技術を用いて,最先端のニューロモルフィックハードウェアのための,現代の機械学習タスクからの10のワークロードを実証する。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses [1.9809266426888898]
専用のニューロモルフィックハードウェア上でのスパイクニューラルネットワーク(RNN)のトレーニングは、依然としてオープンな課題である。
本稿では,PCMデバイスモデルに基づく差分構造アレイのシミュレーションフレームワークを提案する。
我々は,最近提案されたe-prop学習規則を用いて,提案したシミュレーションフレームワークに重みをエミュレートしたスパイクRNNを訓練する。
論文 参考訳(メタデータ) (2021-08-04T01:24:17Z) - Endurance-Aware Mapping of Spiking Neural Networks to Neuromorphic
Hardware [4.234079120512533]
ニューロモルフィックコンピューティングシステムは、ハードウェアのクロスバーアレイとして高密度で低消費電力のシナプスストレージを実装するために、メムリスタを取り入れている。
縦断クロスバーの長いビット線とワードラインは寄生電圧降下の主な原因であり、電流非対称性を生み出す。
機械学習ワークロードのマッピングにおいて,各クロスバーに持続時間変動を組み込むことで,寿命を改善する手法であるeSpineを提案する。
論文 参考訳(メタデータ) (2021-03-09T20:43:28Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Multi-Objective Optimization for Size and Resilience of Spiking Neural
Networks [0.9449650062296823]
シリコンにおけるスパイキングニューラルネットワーク(SNN)モデル
スパイキングニューラルネットワークを2つのニューロモルフィックアーキテクチャの実装に適用し,そのサイズを小さくすることを目的とした。
本稿では,SNNのサイズとレジリエンスを最適化する多目的フィットネス機能を提案する。
論文 参考訳(メタデータ) (2020-02-04T16:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。