論文の概要: STAER: Temporal Aligned Rehearsal for Continual Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2601.20870v1
- Date: Fri, 16 Jan 2026 09:54:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.576694
- Title: STAER: Temporal Aligned Rehearsal for Continual Spiking Neural Network
- Title(参考訳): STAER: 連続スパイクニューラルネットワークのための時間アライメントリハーサル
- Authors: Matteo Gianferrari, Omayma Moussadek, Riccardo Salami, Cosimo Fiorini, Lorenzo Tartarini, Daniela Gandolfi, Simone Calderara,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、イベント駆動の時間ダイナミクスのため、本質的に継続的学習に適している。
本稿では,SNNとANNのパフォーマンスギャップを埋めるため,STAER(Spking Temporal Alignment with Experience Replay)を提案する。
提案手法は,スパイクタイミングの忠実度を維持するために相違可能なSoft-DTWアライメント損失を統合し,出力ロジットに時間拡張・収縮機構を導入し,堅牢な表現学習を実現する。
- 参考スコア(独自算出の注目度): 11.986684053664087
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Spiking Neural Networks (SNNs) are inherently suited for continuous learning due to their event-driven temporal dynamics; however, their application to Class-Incremental Learning (CIL) has been hindered by catastrophic forgetting and the temporal misalignment of spike patterns. In this work, we introduce Spiking Temporal Alignment with Experience Replay (STAER), a novel framework that explicitly preserves temporal structure to bridge the performance gap between SNNs and ANNs. Our approach integrates a differentiable Soft-DTW alignment loss to maintain spike timing fidelity and employs a temporal expansion and contraction mechanism on output logits to enforce robust representation learning. Implemented on a deep ResNet19 spiking backbone, STAER achieves state-of-the-art performance on Sequential-MNIST and Sequential-CIFAR10. Empirical results demonstrate that our method matches or outperforms strong ANN baselines (ER, DER++) while preserving biologically plausible dynamics. Ablation studies further confirm that explicit temporal alignment is critical for representational stability, positioning STAER as a scalable solution for spike-native lifelong learning. Code is available at https://github.com/matteogianferrari/staer.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、イベント駆動型時間ダイナミクスによる継続的学習に本質的に適しているが、クラスインクリメンタルラーニング(CIL)への応用は、破滅的な忘れ込みとスパイクパターンの時間的ミスアライメントによって妨げられている。
本稿では、SNNとANNのパフォーマンスギャップを埋めるために、時間構造を明示的に保存する新しいフレームワークであるSpking Temporal Alignment with Experience Replay(STAER)を紹介する。
提案手法は,スパイクタイミングの忠実度を維持するために相違可能なSoft-DTWアライメント損失を統合し,出力ロジットに時間拡張・収縮機構を導入し,堅牢な表現学習を実現する。
深いResNet19スパイクバックボーンに実装され、STAERはSequential-MNISTとSequential-CIFAR10で最先端のパフォーマンスを達成する。
実験結果から,本手法は生物学的に妥当な力学を保ちながら,強力なANNベースライン(ER,DER++)に適合または優れることが示された。
アブレーション研究は、明示的時間的アライメントが表現的安定性に不可欠であることをさらに確認し、STAERをスパイクネイティブな生涯学習のためのスケーラブルなソリューションとして位置づけた。
コードはhttps://github.com/matteogianferrari/staer.comから入手できる。
関連論文リスト
- Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - PredNext: Explicit Cross-View Temporal Prediction for Unsupervised Learning in Spiking Neural Networks [70.1286354746363]
Spiking Neural Networks (SNN)は、教師なし表現学習のための自然なプラットフォームを提供する。
現在の監視されていないSNNは、浅いアーキテクチャや局所的な可塑性ルールを採用しており、長期の時間的依存関係をモデル化する能力を制限する。
我々は,横断的なステップ予測とクリップ予測を通じて時間的関係を明示的にモデル化するPredNextを提案する。
論文 参考訳(メタデータ) (2025-09-29T14:27:58Z) - Unsupervised Online 3D Instance Segmentation with Synthetic Sequences and Dynamic Loss [52.28880405119483]
教師なしのオンライン3Dインスタンスのセグメンテーションは、基本的だが難しい課題だ。
UNITのような既存の手法はこの方向に進んできたが、訓練の多様性が制限されているままである。
本稿では,合成点雲列生成によるトレーニング分布の強化を目的とした新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-27T08:53:27Z) - STRAP: Spatio-Temporal Pattern Retrieval for Out-of-Distribution Generalization [29.10084723132903]
本稿では,時空間探索型パターン学習フレームワークSTRAPを提案する。
推論中、STRAPは現在の入力と類似性に基づいてライブラリから関連するパターンを検索し、プラグイン・アンド・プレイ・プロンプト機構を介してモデルに注入する。
複数の実世界のストリーミンググラフデータセットに対する実験によると、STRAPはSTOODタスクの最先端STGNNベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T06:11:05Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - Learning Delays Through Gradients and Structure: Emergence of Spatiotemporal Patterns in Spiking Neural Networks [0.06752396542927405]
学習可能なシナプス遅延を2つのアプローチで組み込んだスパイキングニューラルネットワーク(SNN)モデルを提案する。
後者のアプローチでは、ネットワークは接続を選択してプーンし、スパース接続設定の遅延を最適化する。
本研究では,時間的データ処理のための効率的なSNNモデルを構築するために,遅延学習と動的プルーニングを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2024-07-07T11:55:48Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Temporal Contrastive Learning for Spiking Neural Networks [23.963069990569714]
生物学的にインスパイアされたニューラルネットワーク(SNN)は、低エネルギー消費と時間的情報処理能力のためにかなりの注目を集めている。
本稿では、時間領域情報にコントラスト的監督を組み込むことにより、低レイテンシで高性能なSNNを得る新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T10:31:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。