論文の概要: Compiling Spiking Neural Networks to Mitigate Neuromorphic Hardware
Constraints
- arxiv url: http://arxiv.org/abs/2011.13965v1
- Date: Fri, 27 Nov 2020 19:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:05:11.687749
- Title: Compiling Spiking Neural Networks to Mitigate Neuromorphic Hardware
Constraints
- Title(参考訳): ニューロモルフィックハードウェア制約緩和のためのスパイクニューラルネットワークのコンパイル
- Authors: Adarsha Balaji and Anup Das
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、資源制約と電力制約のあるプラットフォーム上での計算制約付きパターン認識を効率的に行う。
ニューロモルフィックハードウェア上で実行されるSNNは、これらのプラットフォームのエネルギー消費をさらに削減することができる。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are efficient computation models to perform
spatio-temporal pattern recognition on {resource}- and {power}-constrained
platforms. SNNs executed on neuromorphic hardware can further reduce energy
consumption of these platforms. With increasing model size and complexity,
mapping SNN-based applications to tile-based neuromorphic hardware is becoming
increasingly challenging. This is attributed to the limitations of
neuro-synaptic cores, viz. a crossbar, to accommodate only a fixed number of
pre-synaptic connections per post-synaptic neuron. For complex SNN-based models
that have many neurons and pre-synaptic connections per neuron, (1) connections
may need to be pruned after training to fit onto the crossbar resources,
leading to a loss in model quality, e.g., accuracy, and (2) the neurons and
synapses need to be partitioned and placed on the neuro-sypatic cores of the
hardware, which could lead to increased latency and energy consumption. In this
work, we propose (1) a novel unrolling technique that decomposes a neuron
function with many pre-synaptic connections into a sequence of homogeneous
neural units to significantly improve the crossbar utilization and retain all
pre-synaptic connections, and (2) SpiNeMap, a novel methodology to map SNNs on
neuromorphic hardware with an aim to minimize energy consumption and spike
latency.
- Abstract(参考訳): spiking neural networks (snns) は,<resource}-および<power}-constrained platform上で時空間パターン認識を行う効率的な計算モデルである。
ニューロモルフィックハードウェア上で実行されるSNNは、これらのプラットフォームのエネルギー消費をさらに削減することができる。
モデルサイズと複雑さの増大に伴い、SNNベースのアプリケーションをタイルベースのニューロモルフィックハードウェアにマッピングすることはますます困難になっている。
これは神経シナプスコア(viz. a crossbar)がシナプス後ニューロンごとに一定の数のシナプス前接続しか持たないという制限に起因する。
ニューロンごとに多くのニューロンとシナプス前接続を持つ複雑なsnnベースのモデルでは、(1)トレーニング後にクロスバーリソースに適合するために接続を刈り取る必要があるため、モデル品質の低下、例えば正確性、(2)ニューロンとシナプスをハードウェアの神経-シナプスコアに分割して配置する必要があるため、レイテンシとエネルギー消費の増加につながる可能性がある。
本研究では,(1)複数のシナプス前接続を有するニューロン機能を,複数の均質な神経単位に分解し,クロスバーの利用を著しく改善し,全てのシナプス前接続を保持させる新しいアンロール法と,(2)エネルギー消費とスパイクレイテンシを最小化することを目的としたニューロモルフィックハードウェア上にsnsをマッピングする新しい手法であるspinsmapを提案する。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Deep Pulse-Coupled Neural Networks [31.65350290424234]
ニューラルネットワーク(SNN)は、ニューロンを利用して脳の情報処理機構をキャプチャする。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いた、より生物学的に実証可能なニューラルモデルを活用する。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
論文 参考訳(メタデータ) (2023-12-24T08:26:00Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Event-Driven Tactile Learning with Location Spiking Neurons [5.822511654546528]
スパイキングニューラルネットワーク(SNN)は、イベント駆動の触覚学習を可能にする。
我々は「位置スパイクニューロン」と呼ばれる新しいニューロンモデルを開発する。
イベント駆動学習に関する他の研究よりも、モデルのエネルギー効率が優れていることを示す。
論文 参考訳(メタデータ) (2022-07-23T12:15:43Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Thermal-Aware Compilation of Spiking Neural Networks to Neuromorphic
Hardware [0.30458514384586394]
本稿では、SNNベースの機械学習ワークロードのニューロンとシナプスをニューロモルフィックハードウェアにマッピングする手法を提案する。
ハードウェアの各クロスバーの平均温度は平均11.4低下し, リーク電力消費量は52%減少した。
論文 参考訳(メタデータ) (2020-10-09T19:29:14Z) - Enabling Resource-Aware Mapping of Spiking Neural Networks via Spatial
Decomposition [4.059246535401608]
タイルベースのニューロモーフィックハードウェアへのスパイクニューラルネットワーク(SNN)ベースの応用は、ますます困難になりつつある。
ニューロン毎に多くのシナプス前接続を持つ複雑なSNNモデルでは、タイルリソースに適合するようにトレーニング後にいくつかの接続を切断する必要がある。
本稿では,多くのシナプス前結合を持つニューロン機能を,同種神経ユニットの配列に分解する新しいアンローリング手法を提案する。
論文 参考訳(メタデータ) (2020-09-19T21:04:46Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。