論文の概要: Learning from Dense Events: Towards Fast Spiking Neural Networks Training via Event Dataset Distillatio
- arxiv url: http://arxiv.org/abs/2511.12095v1
- Date: Sat, 15 Nov 2025 08:20:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.602738
- Title: Learning from Dense Events: Towards Fast Spiking Neural Networks Training via Event Dataset Distillatio
- Title(参考訳): 複雑なイベントから学ぶ:イベントデータセット蒸留による高速スパイクニューラルネットワークトレーニングを目指して
- Authors: Shuhan Ye, Yi Yu, Qixin Zhang, Chenqi Kong, Qiangqiang Wu, Kun Wang, Xudong Jiang,
- Abstract要約: イベントカメラは明るさの変化を感知し、バイナリ非同期イベントストリームを出力する。
彼らのバイオインスパイアされたダイナミクスはニューラルネットワーク(SNN)とよく一致しており、従来のビジョンシステムに代わる有望なエネルギー効率の代替手段を提供する。
本稿では,SNNにおける最初のデータセット蒸留フレームワークであるbfPACE(text-Aligned Condensation for Events)を紹介する。
- 参考スコア(独自算出の注目度): 33.31825132631613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras sense brightness changes and output binary asynchronous event streams, attracting increasing attention. Their bio-inspired dynamics align well with spiking neural networks (SNNs), offering a promising energy-efficient alternative to conventional vision systems. However, SNNs remain costly to train due to temporal coding, which limits their practical deployment. To alleviate the high training cost of SNNs, we introduce \textbf{PACE} (Phase-Aligned Condensation for Events), the first dataset distillation framework to SNNs and event-based vision. PACE distills a large training dataset into a compact synthetic one that enables fast SNN training, which is achieved by two core modules: \textbf{ST-DSM} and \textbf{PEQ-N}. ST-DSM uses residual membrane potentials to densify spike-based features (SDR) and to perform fine-grained spatiotemporal matching of amplitude and phase (ST-SM), while PEQ-N provides a plug-and-play straight through probabilistic integer quantizer compatible with standard event-frame pipelines. Across DVS-Gesture, CIFAR10-DVS, and N-MNIST datasets, PACE outperforms existing coreset selection and dataset distillation baselines, with particularly strong gains on dynamic event streams and at low or moderate IPC. Specifically, on N-MNIST, it achieves \(84.4\%\) accuracy, about \(85\%\) of the full training set performance, while reducing training time by more than \(50\times\) and storage cost by \(6000\times\), yielding compact surrogates that enable minute-scale SNN training and efficient edge deployment.
- Abstract(参考訳): イベントカメラは明るさの変化を感知し、バイナリ非同期イベントストリームを出力する。
彼らのバイオインスパイアされたダイナミクスはスパイクニューラルネットワーク(SNN)とよく一致しており、従来の視覚システムに代わる有望なエネルギー効率の代替手段を提供する。
しかし、SNNはテンポラリなコーディングのためにトレーニングに費用がかかるため、実際のデプロイは制限される。
SNNの高トレーニングコストを軽減するため、SNNに最初のデータセット蒸留フレームワークである \textbf{PACE} (Phase-Aligned Condensation for Events) を導入する。
PACEは、大規模なトレーニングデータセットをコンパクトな合成データセットに蒸留し、高速なSNNトレーニングを可能にし、2つのコアモジュールである \textbf{ST-DSM} と \textbf{PEQ-N} によって達成される。
ST-DSMは、スパイクベースの特徴(SDR)を密度化し、振幅と位相(ST-SM)の微細な時空間マッチングを行うために残留膜電位を使用し、PEQ-Nは標準的なイベントフレームパイプラインと互換性のある確率的整数量子化器を通じて直接プラグ・アンド・プレイを提供する。
DVS-Gesture、CIFAR10-DVS、N-MNISTデータセット全体において、PACEは既存のコアセットの選択とデータセットの蒸留ベースラインよりも優れており、特に動的イベントストリームや、低または中程度のIPCにおいて大きな利益を得ている。
具体的には、N-MNISTでは、トレーニングセット全体のパフォーマンスの約 \(84.4\%\) の精度を達成し、トレーニング時間を \(50\times\) 以上、ストレージコストを \(6000\times\) 以上削減し、小さなSNNトレーニングと効率的なエッジデプロイメントを可能にするコンパクトなサロゲートを生成する。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Best of Both Worlds: Hybrid SNN-ANN Architecture for Event-based Optical Flow Estimation [12.611797572621398]
非同期イベント駆動型計算でニューラルネットワーク(SNN)をスパイクすることは、イベントストリームから機能を抽出する大きな可能性を秘めている。
本稿では,両者の強みを組み合わせた新しいSNN-ANNハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-05T15:26:02Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and Spatially for Efficient DNN Training [62.932299614630985]
本稿では, アクティベーション, ウェイト, 勾配の精度を徐々に向上させる, プログレッシブ分数量子化を統合したFracTrainを提案する。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。