論文の概要: Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2210.05006v1
- Date: Mon, 10 Oct 2022 20:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 13:36:13.297794
- Title: Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware
- Title(参考訳): ニューロモルフィックハードウェアにおける機械学習ワークロードのエネルギー効率向上
- Authors: Peyton Chandarana, Mohammadreza Mohammadi, James Seekings, Ramtin Zand
- Abstract要約: ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
- 参考スコア(独自算出の注目度): 0.11744028458220425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the technology industry is moving towards implementing tasks such as
natural language processing, path planning, image classification, and more on
smaller edge computing devices, the demand for more efficient implementations
of algorithms and hardware accelerators has become a significant area of
research. In recent years, several edge deep learning hardware accelerators
have been released that specifically focus on reducing the power and area
consumed by deep neural networks (DNNs). On the other hand, spiking neural
networks (SNNs) which operate on discrete time-series data, have been shown to
achieve substantial power reductions over even the aforementioned edge DNN
accelerators when deployed on specialized neuromorphic event-based/asynchronous
hardware. While neuromorphic hardware has demonstrated great potential for
accelerating deep learning tasks at the edge, the current space of algorithms
and hardware is limited and still in rather early development. Thus, many
hybrid approaches have been proposed which aim to convert pre-trained DNNs into
SNNs. In this work, we provide a general guide to converting pre-trained DNNs
into SNNs while also presenting techniques to improve the deployment of
converted SNNs on neuromorphic hardware with respect to latency, power, and
energy. Our experimental results show that when compared against the Intel
Neural Compute Stick 2, Intel's neuromorphic processor, Loihi, consumes up to
27x less power and 5x less energy in the tested image classification tasks by
using our SNN improvement techniques.
- Abstract(参考訳): テクノロジー産業は、自然言語処理、経路計画、画像分類など、より小さなエッジコンピューティングデバイス上でのタスクの実装に向けて進んでいるため、アルゴリズムやハードウェアアクセラレーターのより効率的な実装の需要は、研究の重要領域となっている。
近年、ディープニューラルネットワーク(DNN)が消費する電力と面積を減らすことに焦点を当てたエッジディープラーニングハードウェアアクセラレータがいくつかリリースされている。
一方、個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特定のニューロモルフィックイベントベース/非同期ハードウェアに展開する際、前述のエッジDNNアクセラレーターよりも大幅に電力削減が達成されている。
ニューロモルフィックハードウェアは、エッジでのディープラーニングタスクを加速する大きな可能性を示しているが、現在のアルゴリズムとハードウェアの空間は限られており、かなり初期の開発段階にある。
このように、事前学習したDNNをSNNに変換するためのハイブリッドアプローチが多数提案されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,レイテンシ,パワー,エネルギに関するニューロモルフィックハードウェアへの変換されたSNNの展開を改善する手法を提案する。
実験の結果、Intel Neural Compute Stick 2と比較して、IntelのニューロモルフィックプロセッサであるLoihiは、SNN改善技術を用いて、テスト画像分類タスクにおいて最大27倍の消費電力と5倍のエネルギーを消費していることがわかった。
関連論文リスト
- Towards Scalable GPU-Accelerated SNN Training via Temporal Fusion [8.995682796140429]
スパイキングニューラルネットワーク(SNN)は、人工知能の変革的発展として出現する。
SNNは、特別なスパース計算ハードウェア上で有望な効率を示すが、その実践訓練は、しばしば従来のGPUに依存している。
本稿では,GPUプラットフォーム上でのSNNの伝搬ダイナミクスを高速化する新しい時間融合法を提案する。
論文 参考訳(メタデータ) (2024-08-01T04:41:56Z) - Detection of Fast-Moving Objects with Neuromorphic Hardware [12.323012135924374]
スパイキングニューラルネットワーク(SNN)は、しばしば次世代ニューラルネットワーク(NN)と見なされる。
ニューロモルフィックコンピューティング(NC)とSNNは、しばしば次世代ニューラルネットワーク(NN)と見なされる。
論文 参考訳(メタデータ) (2024-03-15T20:53:10Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Are SNNs Truly Energy-efficient? $-$ A Hardware Perspective [7.539212567508529]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率のよい機械学習能力に注目を集めている。
本研究では,SATAとSpikeSimという,大規模SNN推論のための2つのハードウェアベンチマークプラットフォームについて検討する。
論文 参考訳(メタデータ) (2023-09-06T22:23:22Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Accelerating spiking neural network training [1.6114012813668934]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳内の活動電位にインスパイアされた人工ネットワークの一種である。
本稿では,全ての逐次計算を排除し,ベクトル化された演算にのみ依存する単一スパイク/ニューラルオンSNNを直接訓練する手法を提案する。
提案手法は, 従来のSNNと比較して, 95.68 %以上のスパイク数削減を達成し, ニューロモルフィックコンピュータ上でのエネルギー要求を著しく低減する。
論文 参考訳(メタデータ) (2022-05-30T17:48:14Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。