論文の概要: KLIF: An optimized spiking neuron unit for tuning surrogate gradient
slope and membrane potential
- arxiv url: http://arxiv.org/abs/2302.09238v1
- Date: Sat, 18 Feb 2023 05:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:41:44.713702
- Title: KLIF: An optimized spiking neuron unit for tuning surrogate gradient
slope and membrane potential
- Title(参考訳): klif:サロゲート勾配勾配と膜電位を最適化したスパイキングニューロンユニット
- Authors: Chunming Jiang, Yilei Zhang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、時間情報を処理する能力によって、多くの注目を集めている。
SNNのための効率的かつ高性能な学習アルゴリズムを開発することは依然として困難である。
我々は,SNNの学習能力を向上させるため,新しいk-based leaky Integrate-and-Fireneurnモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have attracted much attention due to their
ability to process temporal information, low power consumption, and higher
biological plausibility. However, it is still challenging to develop efficient
and high-performing learning algorithms for SNNs. Methods like artificial
neural network (ANN)-to-SNN conversion can transform ANNs to SNNs with slight
performance loss, but it needs a long simulation to approximate the rate
coding. Directly training SNN by spike-based backpropagation (BP) such as
surrogate gradient approximation is more flexible. Yet now, the performance of
SNNs is not competitive compared with ANNs. In this paper, we propose a novel
k-based leaky Integrate-and-Fire (KLIF) neuron model to improve the learning
ability of SNNs. Compared with the popular leaky integrate-and-fire (LIF)
model, KLIF adds a learnable scaling factor to dynamically update the slope and
width of the surrogate gradient curve during training and incorporates a ReLU
activation function that selectively delivers membrane potential to spike
firing and resetting. The proposed spiking unit is evaluated on both static
MNIST, Fashion-MNIST, CIFAR-10 datasets, as well as neuromorphic N-MNIST,
CIFAR10-DVS, and DVS128-Gesture datasets. Experiments indicate that KLIF
performs much better than LIF without introducing additional computational cost
and achieves state-of-the-art performance on these datasets with few time
steps. Also, KLIF is believed to be more biological plausible than LIF. The
good performance of KLIF can make it completely replace the role of LIF in SNN
for various tasks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力、消費電力の低さ、高い生物学的信頼性のために注目されている。
しかし、SNNのための効率的かつ高性能な学習アルゴリズムを開発することは依然として困難である。
人工知能ニューラルネットワーク(ANN)-SNN変換のような手法は、ANNをわずかな性能損失でSNNに変換することができるが、レートコーディングを近似するには長いシミュレーションが必要である。
代理勾配近似などのスパイクベースのバックプロパゲーション(BP)によるSNNの直接トレーニングはより柔軟である。
しかし、現在、SNNのパフォーマンスはANNと比べて競争力がない。
本稿では,SNNの学習能力を向上させるため,新しいK-based leaky Integrate-and-Fire(KLIF)ニューロンモデルを提案する。
一般的なLIFモデルと比較して、KLIFはトレーニング中にサロゲート勾配曲線の傾きと幅を動的に更新するための学習可能なスケーリング係数を追加し、スパイク発射とリセットのために膜電位を選択的に供給するReLUアクティベーション機能を組み込んだ。
提案したスパイクユニットは、静的MNIST, Fashion-MNIST, CIFAR-10データセットおよびニューロモルフィックN-MNIST, CIFAR10-DVS, DVS128-Gestureデータセットの両方で評価される。
実験によると、klifは追加の計算コストを導入することなくlifよりもずっと優れた性能を示し、わずかな時間ステップでこれらのデータセットで最先端のパフォーマンスを達成している。
また、KLIFはLIFよりも生物学的に有毒であると考えられている。
KLIFの優れたパフォーマンスは、様々なタスクにおいてSNNにおけるLIFの役割を完全に置き換えることができます。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - CLIF: Complementary Leaky Integrate-and-Fire Neuron for Spiking Neural Networks [5.587069105667678]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
差別化できないスパイク機構のため、SNNを訓練することは依然として困難である。
本稿では、Leaky Integrate-and-Fire Neuron-based SNNとComplementary Leaky Integrate-and-Fire Neuronを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:51:57Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Skip Connections in Spiking Neural Networks: An Analysis of Their Effect
on Network Training [0.8602553195689513]
従来の人工ニューラルネットワーク(ANN)の代替として、スパイキングニューラルネットワーク(SNN)が注目を集めている。
本稿では,SNNにおけるスキップ接続の影響について検討し,ANNからSNNへのモデル適応を行うハイパーパラメータ最適化手法を提案する。
本研究では,SNNの位置,タイプ,回数を最適化することで,SNNの精度と効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-03-23T07:57:32Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Spiking Neural Networks with Improved Inherent Recurrence Dynamics for
Sequential Learning [6.417011237981518]
漏れた統合と発火(LIF)ニューロンを持つニューラルネットワーク(SNN)は、イベント駆動方式で操作できる。
我々は,SNNを逐次的なタスクのために訓練し,LIFニューロンのネットワークへの修正を提案する。
そこで我々は,提案するSNNのトレーニング手法を開発し,本質的な再帰ダイナミクスを改良した。
論文 参考訳(メタデータ) (2021-09-04T17:13:28Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。