論文の概要: FFGAF-SNN: The Forward-Forward Based Gradient Approximation Free Training Framework for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2507.23643v1
- Date: Thu, 31 Jul 2025 15:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:10.024294
- Title: FFGAF-SNN: The Forward-Forward Based Gradient Approximation Free Training Framework for Spiking Neural Networks
- Title(参考訳): FFGAF-SNN: スパイクニューラルネットワークのためのフォワードフォワードに基づくグラディエント近似自由トレーニングフレームワーク
- Authors: Changqing Xu, Ziqiang Yang, Yi Liu, Xinfang Liao, Guiqi Mo, Hao Zeng, Yintang Yang,
- Abstract要約: Spiking Neural Networks (SNN)は、エネルギー効率の良いニューロモルフィックコンピューティングのための生物学的に妥当なフレームワークを提供する。
SNNを効率よく訓練することは困難である。
本稿では,スパイキングニューラルネットワークのためのフォワードフォワード(FF)に基づく勾配近似自由トレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.310627646090302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a biologically plausible framework for energy-efficient neuromorphic computing. However, it is a challenge to train SNNs due to their non-differentiability, efficiently. Existing gradient approximation approaches frequently sacrifice accuracy and face deployment limitations on edge devices due to the substantial computational requirements of backpropagation. To address these challenges, we propose a Forward-Forward (FF) based gradient approximation-free training framework for Spiking Neural Networks, which treats spiking activations as black-box modules, thereby eliminating the need for gradient approximation while significantly reducing computational complexity. Furthermore, we introduce a class-aware complexity adaptation mechanism that dynamically optimizes the loss function based on inter-class difficulty metrics, enabling efficient allocation of network resources across different categories. Experimental results demonstrate that our proposed training framework achieves test accuracies of 99.58%, 92.13%, and 75.64% on the MNIST, Fashion-MNIST, and CIFAR-10 datasets, respectively, surpassing all existing FF-based SNN approaches. Additionally, our proposed method exhibits significant advantages in terms of memory access and computational power consumption.
- Abstract(参考訳): Spiking Neural Networks (SNN)は、エネルギー効率の良いニューロモルフィックコンピューティングのための生物学的に妥当なフレームワークを提供する。
しかし,SNNを効率よく訓練することは困難である。
既存の勾配近似は、バックプロパゲーションの相当な計算要求のため、エッジデバイス上の精度と面展開制限を犠牲にすることが多い。
これらの課題に対処するために、スパイキング活性化をブラックボックスモジュールとして扱うスパイキングニューラルネットワークのためのフォワードフォワード(FF)に基づく勾配近似のトレーニングフレームワークを提案する。
さらに、クラス間の難易度に基づいて損失関数を動的に最適化し、異なるカテゴリにまたがるネットワークリソースの効率的な割り当てを可能にするクラス認識複雑性適応機構を導入する。
MNIST, Fashion-MNIST, CIFAR-10データセットでは, 既存のFFベースのSNNアプローチをそれぞれ上回り, 99.58%, 92.13%, および75.64%の精度を達成できた。
さらに,提案手法はメモリアクセスと計算消費電力の面で大きな利点を示す。
関連論文リスト
- Backpropagation-free Spiking Neural Networks with the Forward-Forward Algorithm [0.13499500088995461]
Spiking Neural Networks (SNN)は、離散スパイクベースの処理を通じて神経活動をエミュレートする生物学的にインスパイアされた計算パラダイムを提供する。
これらの利点にもかかわらず、従来のバックプロパゲーション(BP)を用いたSNNのトレーニングは、計算の非効率性と生物学的妥当性の欠如により、依然として困難である。
本研究では,SNNの代替学習フレームワークとして,フォワードフォワード(FF)アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2025-02-19T12:44:26Z) - Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。