論文の概要: ParaRevSNN: A Parallel Reversible Spiking Neural Network for Efficient Training and Inference
- arxiv url: http://arxiv.org/abs/2508.01223v1
- Date: Sat, 02 Aug 2025 06:40:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.769104
- Title: ParaRevSNN: A Parallel Reversible Spiking Neural Network for Efficient Training and Inference
- Title(参考訳): ParaRevSNN: 効果的なトレーニングと推論のための並列可逆スパイクニューラルネットワーク
- Authors: Changqing Xu, Guoqing Sun, Yi Liu, Xinfang Liao, Yintang Yang,
- Abstract要約: RevSNN(Reversible Spiking Neural Networks)は、バックプロパゲーション中に前方アクティベーションを再構築することで、メモリ効率のトレーニングを可能にする。
RevSNNは厳密な逐次計算のためにレイテンシが高い。
本稿では,並列可逆SNNアーキテクチャであるParaRevSNNを提案する。
- 参考スコア(独自算出の注目度): 4.174294693108078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reversible Spiking Neural Networks (RevSNNs) enable memory-efficient training by reconstructing forward activations during backpropagation, but suffer from high latency due to strictly sequential computation. To overcome this limitation, we propose ParaRevSNN, a parallel reversible SNN architecture that decouples sequential dependencies between reversible blocks while preserving reversibility. This design enables inter-block parallelism, significantly accelerating training and inference while retaining the memory-saving benefits of reversibility. Experiments on CIFAR10, CIFAR100, CIFAR10-DVS, and DVS128 Gesture demonstrate that ParaRevSNN matches or exceeds the accuracy of standard RevSNNs, while reducing training time by up to 35.2\% and inference time to 18.15\%, making it well-suited for deployment in resource-constrained scenarios.
- Abstract(参考訳): RevSNN(Reversible Spiking Neural Networks)は、バックプロパゲーション中に前方アクティベーションを再構築することで、メモリ効率のトレーニングを可能にする。
この制限を克服するため,並列可逆SNNアーキテクチャであるParaRevSNNを提案する。
この設計はブロック間並列化を可能にし、トレーニングと推論を著しく加速し、可逆性のメモリ節約の利点を維持している。
CIFAR10, CIFAR100, CIFAR10-DVS, DVS128 Gestureの実験では、ParaRevSNNは標準のRevSNNと一致するか、あるいは精度を上回っている。
関連論文リスト
- Fast Training of Recurrent Neural Networks with Stationary State Feedbacks [48.22082789438538]
リカレントニューラルネットワーク(RNN)は最近、Transformerよりも強力なパフォーマンスと高速な推論を実証している。
BPTTを固定勾配フィードバック機構で置き換える新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-29T14:45:52Z) - Never Reset Again: A Mathematical Framework for Continual Inference in Recurrent Neural Networks [2.1838661321884443]
リカレントニューラルネットワーク(RNN)はシーケンシャルな処理に広く用いられているが、状態飽和による連続推論による制限に直面している。
本稿では,拡張シーケンスの精度を保ちつつ,推論中のリセットの必要性を解消する適応的損失関数を提案する。
論文 参考訳(メタデータ) (2024-12-20T15:24:28Z) - Memory-Efficient Reversible Spiking Neural Networks [8.05761813203348]
スパイキングニューラルネットワーク(SNN)は、人工知能ニューラルネットワーク(ANN)と競合する可能性がある
SNNは、より深いSNNモデルのトレーニングを妨げるANNよりもはるかに多くのメモリを必要とする。
本稿では、トレーニング中の中間活性化と膜電位のメモリコストを低減するために、可逆的なスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-13T06:39:49Z) - Towards Zero Memory Footprint Spiking Neural Network Training [7.4331790419913455]
スパイキングニューラルネットワーク(SNN)は、連続値ではなくスパイクと呼ばれる離散時間イベントを使用して情報を処理する。
本稿では,メモリフットプリントが著しく低いことを特徴とする,革新的なフレームワークを提案する。
我々の設計では、現在のSNNノードと比較してメモリ使用量の削減を$mathbf58.65times$で達成できる。
論文 参考訳(メタデータ) (2023-08-16T19:49:24Z) - Resurrecting Recurrent Neural Networks for Long Sequences [45.800920421868625]
リカレントニューラルネットワーク(RNN)は、長いシーケンスに対する高速な推論を提供するが、最適化が難しく、訓練が遅い。
深部状態空間モデル(SSM)は、最近、長いシーケンスモデリングタスクにおいて非常によく機能することが示されている。
本稿では,信号伝搬の標準的な引数を用いた深部RNNの設計により,長距離推論タスクにおける深部SSMの性能を回復できることを示す。
論文 参考訳(メタデータ) (2023-03-11T08:53:11Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Effect of Architectures and Training Methods on the Performance of
Learned Video Frame Prediction [10.404162481860634]
実験結果から,残差FCNNアーキテクチャは高いトレーニングとテスト(推論)計算の複雑さを犠牲にして,ピーク信号対雑音比(PSNR)の点で最善であることがわかった。
CRNNは、時間的手続きを通じて、ステートフルなトランケートされたバックプロパゲーションを使用して、安定かつ非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2020-08-13T20:45:28Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。