論文の概要: Training a General Spiking Neural Network with Improved Efficiency and
Minimum Latency
- arxiv url: http://arxiv.org/abs/2401.10843v1
- Date: Fri, 5 Jan 2024 09:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 16:07:20.843504
- Title: Training a General Spiking Neural Network with Improved Efficiency and
Minimum Latency
- Title(参考訳): 効率と最小レイテンシを改善した汎用スパイクニューラルネットワークの訓練
- Authors: Yunpeng Yao, Man Wu, Zheng Chen, Renyuan Zhang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、イベント駆動方式で動作し、バイナリスパイク表現を使用する。
本稿では,限られた時間ステップで特徴学習とアクティベーション効率を向上させるための一般的なトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.503744528661997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) that operate in an event-driven manner and
employ binary spike representation have recently emerged as promising
candidates for energy-efficient computing. However, a cost bottleneck arises in
obtaining high-performance SNNs: training a SNN model requires a large number
of time steps in addition to the usual learning iterations, hence this limits
their energy efficiency. This paper proposes a general training framework that
enhances feature learning and activation efficiency within a limited time step,
providing a new solution for more energy-efficient SNNs. Our framework allows
SNN neurons to learn robust spike feature from different receptive fields and
update neuron states by utilizing both current stimuli and recurrence
information transmitted from other neurons. This setting continuously
complements information within a single time step. Additionally, we propose a
projection function to merge these two stimuli to smoothly optimize neuron
weights (spike firing threshold and activation). We evaluate the proposal for
both convolution and recurrent models. Our experimental results indicate
state-of-the-art visual classification tasks, including CIFAR10, CIFAR100, and
TinyImageNet.Our framework achieves 72.41% and 72.31% top-1 accuracy with only
1 time step on CIFAR100 for CNNs and RNNs, respectively. Our method reduces 10x
and 3x joule energy than a standard ANN and SNN, respectively, on CIFAR10,
without additional time steps.
- Abstract(参考訳): イベント駆動方式で動作し、バイナリスパイク表現を使用するスパイキングニューラルネットワーク(SNN)が、エネルギー効率の高いコンピューティングの候補として最近登場した。
しかし、SNNモデルのトレーニングには通常の学習イテレーションに加えて多くの時間ステップが必要であり、それによってエネルギー効率が制限される。
本稿では,限られた時間ステップで機能学習とアクティベーション効率を向上し,よりエネルギー効率の良いsnsのための新しいソリューションを提供する,一般的なトレーニングフレームワークを提案する。
この枠組みにより,snニューロンは異なる受容野からロバストスパイク特徴を学習し,他のニューロンから伝達される現在の刺激情報と再発情報の両方を利用してニューロンの状態を更新することができる。
この設定は、単一の時間ステップ内で情報を継続的に補完する。
さらに,これら2つの刺激を融合させてニューロンの重量をスムーズに最適化する投射関数を提案する。
畳み込みモデルと繰り返しモデルの両方の提案を評価する。
実験の結果,CIFAR10,CIFAR100,TinyImageNetなどの最先端の視覚分類タスクが72.41%,72.31%,CNNのCIFAR100では1段階に過ぎなかった。
提案手法は, CIFAR10 上での標準 ANN と SNN の10倍ジュールエネルギーを, 追加の時間ステップなしで削減する。
関連論文リスト
- Scaling Spike-driven Transformer with Efficient Spike Firing Approximation Training [17.193023656793464]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)の野望は、従来のニューラルネットワーク(ANN)に代わる低消費電力な代替手段になることである。
この作業は、SNNとANNのパフォーマンスギャップと、SNNの高トレーニングコストという、このビジョンを実現する上での2つの大きな課題に対処する。
本研究では,2次発火機構によるスパイクニューロンの固有の欠陥を同定し,整数学習とスパイク駆動推論を用いたスパイクフィリング近似(SFA)法を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:05:41Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Spiking Neural Networks with Improved Inherent Recurrence Dynamics for
Sequential Learning [6.417011237981518]
漏れた統合と発火(LIF)ニューロンを持つニューラルネットワーク(SNN)は、イベント駆動方式で操作できる。
我々は,SNNを逐次的なタスクのために訓練し,LIFニューロンのネットワークへの修正を提案する。
そこで我々は,提案するSNNのトレーニング手法を開発し,本質的な再帰ダイナミクスを改良した。
論文 参考訳(メタデータ) (2021-09-04T17:13:28Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。