論文の概要: Spiking Layer-Adaptive Magnitude-based Pruning
- arxiv url: http://arxiv.org/abs/2603.14946v1
- Date: Mon, 16 Mar 2026 07:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.143483
- Title: Spiking Layer-Adaptive Magnitude-based Pruning
- Title(参考訳): スパイキング層適応マグニチュードベースプルーニング
- Authors: Junqiao Wang, Zhehang Ye, Yuqi Ouyang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)はエネルギー効率のよい計算を提供するが、その展開は高密度接続と高スパイキング操作コストによって制約される。
本稿では,スパイキング層適応型マグニチュード・プルーニング(SLAMP)を提案する。
SLAMPは、レイヤとタイムステップ間の最悪の出力歪みを明示的に制御することで、時間SNNへの層適応的なプルーニングを一般化する。
- 参考スコア(独自算出の注目度): 2.141079906482723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) provide energy-efficient computation but their deployment is constrained by dense connectivity and high spiking operation costs. Existing magnitude-based pruning strategies, when naively applied to SNNs, fail to account for temporal accumulation, non-uniform timestep contributions, and membrane stability, often leading to severe performance degradation. This paper proposes Spiking Layer-Adaptive Magnitude-based Pruning (SLAMP), a theory-guided pruning framework that generalizes layer-adaptive magnitude pruning to temporal SNNs by explicitly controlling worst-case output distortion across layers and timesteps. SLAMP formulates sparsity allocation as a temporal distortion-constrained optimization problem, yielding time-aware layer importance scores that reduce to conventional layer-adaptive pruning in single-timestep limit. An efficient two-stage procedure is derived, combining temporal score estimation, global sparsity allocation, and magnitude pruning with retraining for stability recovery. Experiments on CIFAR10, CIFAR100, and the event-based CIFAR10-DVS datasets demonstrate that SLAMP achieves substantial connectivity and spiking operation reductions while preserving accuracy, enabling efficient and deployable SNN inference.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)はエネルギー効率のよい計算を提供するが、その展開は高密度接続と高スパイキング操作コストによって制約される。
既存のマグニチュードベースのプルーニング戦略は、SNNに鼻で適用した場合、時間的蓄積、非一様時間ステップの寄与、膜安定性を考慮せず、しばしば深刻な性能低下をもたらす。
本稿では,時相SNNに階層適応型プルーニングを一般化する理論誘導型プルーニングフレームワークであるSpyking Layer-Adaptive Magnitude-based Pruning (SLAMP)を提案する。
SLAMPは時間的歪み制約のある最適化問題として空間配置を定式化し、単一時間制限で従来の層適応プルーニングに還元する時間的層重み付けスコアを得る。
時間的スコア推定,大域的空間割当,大域的プルーニング,安定性回復のための再トレーニングを組み合わせた2段階の効率的な手順を導出した。
CIFAR10、CIFAR100、およびイベントベースのCIFAR10-DVSデータセットに関する実験は、SLAMPが精度を保ちながら相当な接続性とスパイク操作の削減を実現し、効率よくデプロイ可能なSNN推論を可能にすることを示した。
関連論文リスト
- When Learning Hurts: Fixed-Pole RNN for Real-Time Online Training [58.25341036646294]
本研究では,再帰性極の学習がデータに有意な利点をもたらしない理由を解析的に検討し,実時間学習シナリオを実証的に提供する。
固定極ネットワークは、トレーニングの複雑さを低減し、オンラインリアルタイムタスクにより適していることを示す。
論文 参考訳(メタデータ) (2026-02-25T00:15:13Z) - Plug-and-Play Homeostatic Spark: Zero-Cost Acceleration for SNN Training Across Paradigms [40.57310813106791]
スパイキングニューラルネットワークは、イベント駆動計算、スパースアクティベーション、ハードウェア効率を提供するが、トレーニングはしばしばゆっくりと収束し、安定性に欠ける。
AHSAR(Adaptive Homeostatic Spiking Activity Regulation)は,超簡易なプラグインおよびトレーニングパラダイムである。
AHSARは最適化を安定化し、モデルアーキテクチャや損失、勾配を変更することなく収束を加速する。
論文 参考訳(メタデータ) (2025-12-04T17:26:46Z) - DeepBlip: Estimating Conditional Average Treatment Effects Over Time [48.20988325299593]
構造ネスト平均モデル(SNMM)のための最初のニューラルネットワークフレームワークであるDeepBlipを提案する。
提案手法は, 時間変化による不偏推定を正確に調整し, ナイマン・直交損失関数はニュアンスモデルの不特定性に対して頑健性を保証する。
論文 参考訳(メタデータ) (2025-11-18T14:49:03Z) - Energy-Efficient Stochastic Computing (SC) Neural Networks for Internet of Things Devices With Layer-Wise Adjustable Sequence Length (ASL) [12.43648551511862]
Adjustable Sequence Length (ASL)は、ニューラルネットワーク(NN)に特異的に混合精度の概念を適用する新しいスキームである。
本稿では,SC NN に対して混合精度の概念を適用した新しいスキーム ASL を紹介する。
32nmで合成されたパイプラインSCの評価は、ASLがエネルギーと遅延オーバーヘッドを最大60%削減できることを示した。
論文 参考訳(メタデータ) (2025-08-05T16:45:24Z) - EPSILON: Adaptive Fault Mitigation in Approximate Deep Neural Network using Statistical Signatures [0.0]
我々は、ディープニューラルネットワークアクセラレータ(AxDNN)における効率的な障害検出と緩和のための軽量フレームワークであるEPSILONを紹介する。
本フレームワークでは,非パラメトリックなパターンマッチングアルゴリズムを導入し,通常の実行を中断することなく一定時間故障検出を実現する。
EPSILONは、重量分布と層臨界度の統計解析に基づいて緩和戦略をインテリジェントに調整することで、モデルの精度を維持する。
論文 参考訳(メタデータ) (2025-04-24T20:37:37Z) - Fast Training of Recurrent Neural Networks with Stationary State Feedbacks [48.22082789438538]
リカレントニューラルネットワーク(RNN)は最近、Transformerよりも強力なパフォーマンスと高速な推論を実証している。
BPTTを固定勾配フィードバック機構で置き換える新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-29T14:45:52Z) - CQIL: Inference Latency Optimization with Concurrent Computation of Quasi-Independent Layers [21.91815582658188]
大規模言語モデルは、ほぼすべての自然言語処理タスクで前例のないパフォーマンスを実現している。
圧倒的な複雑さは、ユーザエクスペリエンスに悪影響を及ぼす高い推論遅延を引き起こします。
推定遅延を著しく低減するために並列に計算できる準独立層を同定することを提案する。
論文 参考訳(メタデータ) (2024-04-10T03:30:01Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。