論文の概要: Random Feature Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2510.01012v1
- Date: Wed, 01 Oct 2025 15:18:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.637963
- Title: Random Feature Spiking Neural Networks
- Title(参考訳): ランダム特徴スパイクニューラルネットワーク
- Authors: Maximilian Gollwitzer, Felix Dietrich,
- Abstract要約: 機械学習(ML)モデルとしてのスパイキングニューラルネットワーク(SNN)は最近、多くの注目を集めている。
本稿では,SNNのエンドツーエンドトレーニングのための新しいデータ駆動,高速,高性能,解釈可能なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.6875312133832079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) as Machine Learning (ML) models have recently received a lot of attention as a potentially more energy-efficient alternative to conventional Artificial Neural Networks. The non-differentiability and sparsity of the spiking mechanism can make these models very difficult to train with algorithms based on propagating gradients through the spiking non-linearity. We address this problem by adapting the paradigm of Random Feature Methods (RFMs) from Artificial Neural Networks (ANNs) to Spike Response Model (SRM) SNNs. This approach allows training of SNNs without approximation of the spike function gradient. Concretely, we propose a novel data-driven, fast, high-performance, and interpretable algorithm for end-to-end training of SNNs inspired by the SWIM algorithm for RFM-ANNs, which we coin S-SWIM. We provide a thorough theoretical discussion and supplementary numerical experiments showing that S-SWIM can reach high accuracies on time series forecasting as a standalone strategy and serve as an effective initialisation strategy before gradient-based training. Additional ablation studies show that our proposed method performs better than random sampling of network weights.
- Abstract(参考訳): 機械学習(ML)モデルとしてのスパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワークに代わる、よりエネルギー効率の良い代替手段として、多くの注目を集めている。
スパイキング機構の非微分性とスパーシリティは、スパイキング非直線性を通して勾配を伝播するアルゴリズムを用いてこれらのモデルを訓練することを非常に困難にすることができる。
本稿では,ニューラルネットワーク(ANN)からスパイク応答モデル(SRM)SNNへのランダム特徴法(RFM)のパラダイムを適用することで,この問題に対処する。
このアプローチはスパイク関数勾配を近似せずにSNNのトレーニングを可能にする。
具体的には、SRM-ANNのSWIMアルゴリズムにインスパイアされたSNNのエンドツーエンドトレーニングのための、新しいデータ駆動型、高速、高性能、解釈可能なアルゴリズムを提案する。
我々は,S-SWIMが時系列予測において,単独の戦略として高い精度を達成でき,勾配に基づくトレーニングの前に効果的な初期化戦略として機能することを示す,徹底的な理論的議論と補足的な数値実験を行った。
追加のアブレーション実験により,提案手法はネットワーク重みのランダムサンプリングよりも優れた性能を示した。
関連論文リスト
- ADMM-Based Training for Spiking Neural Networks [1.1249583407496218]
スパイクニューラルネットワーク(SNN)は、時系列処理とエネルギー消費の最小化によって、その可能性の高さから勢いを増している。
彼らはまだ、専用で効率的なトレーニングアルゴリズムを欠いている。
乗算器の交互方向法(ADMM)に基づく新しいSNN訓練法を提案する。
論文 参考訳(メタデータ) (2025-05-08T10:20:33Z) - Backpropagation-free Spiking Neural Networks with the Forward-Forward Algorithm [0.13499500088995461]
Spiking Neural Networks (SNN)は、離散スパイクベースの処理を通じて神経活動をエミュレートする生物学的にインスパイアされた計算パラダイムを提供する。
これらの利点にもかかわらず、従来のバックプロパゲーション(BP)を用いたSNNのトレーニングは、計算の非効率性と生物学的妥当性の欠如により、依然として困難である。
本研究では,SNNの代替学習フレームワークとして,フォワードフォワード(FF)アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2025-02-19T12:44:26Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Error-feedback stochastic modeling strategy for time series forecasting
with convolutional neural networks [11.162185201961174]
本稿では,ランダム畳み込みネットワーク(ESM-CNN)ニューラル時系列予測タスクを構築するための新しいError-feedback Modeling (ESM)戦略を提案する。
提案したESM-CNNは、最先端のランダムニューラルネットワークを上回るだけでなく、トレーニングされた最先端のディープニューラルネットワークモデルと比較して、予測能力と計算オーバーヘッドの低減も実現している。
論文 参考訳(メタデータ) (2020-02-03T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。