論文の概要: A Time Encoding approach to training Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2110.06735v1
- Date: Wed, 13 Oct 2021 14:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 16:20:49.906873
- Title: A Time Encoding approach to training Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの学習のための時間符号化手法
- Authors: Karen Adam
- Abstract要約: スパイキングニューラルネットワーク(SNN)の人気が高まっている。
本稿では、時間符号化理論を用いて、SNNの理解と学習を支援する余分なツールを提供する。
- 参考スコア(独自算出の注目度): 3.655021726150368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Spiking Neural Networks (SNNs) have been gaining in popularity, it
seems that the algorithms used to train them are not powerful enough to solve
the same tasks as those tackled by classical Artificial Neural Networks (ANNs).
In this paper, we provide an extra tool to help us understand and train SNNs by
using theory from the field of time encoding. Time encoding machines (TEMs) can
be used to model integrate-and-fire neurons and have well-understood
reconstruction properties. We will see how one can take inspiration from the
field of TEMs to interpret the spike times of SNNs as constraints on the SNNs'
weight matrices. More specifically, we study how to train one-layer SNNs by
solving a set of linear constraints, and how to train two-layer SNNs by
leveraging the all-or-none and asynchronous properties of the spikes emitted by
SNNs. These properties of spikes result in an alternative to backpropagation
which is not possible in the case of simultaneous and graded activations as in
classical ANNs.
- Abstract(参考訳): スパイキングニューラルネットワーク (SNN) が人気を集めているが, トレーニングに使用されるアルゴリズムは, 古典的ニューラルネットワーク (ANN) が取り組んだものと同じ課題を解くのに十分ではないようだ。
本稿では、時間エンコーディングの分野からの理論を用いて、snsの理解と訓練を支援する追加のツールを提案する。
time encoding machine (tems) は統合・発射ニューロンをモデル化し、よく理解された再構成特性を持つ。
TEMの分野からインスピレーションを得て、SNNのスパイクタイムをSNNの重み行列の制約として解釈する方法について検討する。
具体的には、線形制約の集合を解くことによって一層SNNを訓練する方法と、SNNが発するスパイクのオール・オー・ノー・非同期特性を利用して二層SNNを訓練する方法を検討する。
これらのスパイクの性質はバックプロパゲーションの代替となり、古典的なANNのようにアクティベーションとグレードの同時アクティベーションでは不可能である。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Deep Learning in Spiking Phasor Neural Networks [0.6767885381740952]
スパイキングニューラルネットワーク(SNN)は、低レイテンシで低消費電力のニューロモルフィックハードウェアで使用するために、ディープラーニングコミュニティの注目を集めている。
本稿では,Spking Phasor Neural Networks(SPNN)を紹介する。
SPNNは複雑に評価されたディープニューラルネットワーク(DNN)に基づいており、スパイク時間による位相を表す。
論文 参考訳(メタデータ) (2022-04-01T15:06:15Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Long Short-Term Memory Spiking Networks and Their Applications [10.071615423169902]
繰り返しスパイクニューラルネットワーク(SNN)のトレーニングのための新しいフレームワークを提案する。
LSTMスパイクネットワークはスパイクのタイミングと時間的依存性を学習する。
また,LSTMをベースとしたSNN内でエラーのバックプロパゲーションを行う手法を開発した。
論文 参考訳(メタデータ) (2020-07-09T13:22:27Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Training Deep Spiking Neural Networks [0.0]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
論文 参考訳(メタデータ) (2020-06-08T09:47:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。