論文の概要: Neuromorphic Data Augmentation for Training Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2203.06145v1
- Date: Fri, 11 Mar 2022 18:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:59:38.121937
- Title: Neuromorphic Data Augmentation for Training Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのトレーニングのためのニューロモルフィックデータ拡張
- Authors: Yuhang Li, Youngeun Kim, Hyoungseob Park, Tamar Geller, Priyadarshini
Panda
- Abstract要約: イベントベースデータセットに対するニューロモルフィックデータ拡張(NDA)を提案する。
NDAはSNNトレーニングを著しく安定化し、トレーニングとテストパフォーマンスの一般化ギャップを小さくする。
SNNにおける教師なしコントラスト学習の実現可能性を示す。
- 参考スコア(独自算出の注目度): 10.303676184878896
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing neuromorphic intelligence on event-based datasets with spiking
neural networks (SNNs) has recently attracted much research attention. However,
the limited size of event-based datasets makes SNNs prone to overfitting and
unstable convergence. This issue remains unexplored by previous academic works.
In an effort to minimize this generalization gap, we propose neuromorphic data
augmentation (NDA), a family of geometric augmentations specifically designed
for event-based datasets with the goal of significantly stabilizing the SNN
training and reducing the generalization gap between training and test
performance. The proposed method is simple and compatible with existing SNN
training pipelines. Using the proposed augmentation, for the first time, we
demonstrate the feasibility of unsupervised contrastive learning for SNNs. We
conduct comprehensive experiments on prevailing neuromorphic vision benchmarks
and show that NDA yields substantial improvements over previous
state-of-the-art results. For example, NDA-based SNN achieves accuracy gain on
CIFAR10-DVS and N-Caltech 101 by 10.1% and 13.7%, respectively.
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)を用いたイベントベースのデータセット上でのニューロモーフィックインテリジェンスの開発は、最近多くの研究の注目を集めている。
しかし、イベントベースのデータセットのサイズが制限されているため、SNNは過度に適合し、不安定な収束する傾向にある。
この問題は以前の学術研究では未解決のままである。
この一般化ギャップを最小化するために、SNNトレーニングの大幅な安定化と、トレーニングとテストパフォーマンスの間の一般化ギャップの低減を目的として、イベントベースデータセット用に特別に設計された幾何学的拡張であるニューロモルフィックデータ拡張(NDA)を提案する。
提案手法は単純で,既存のSNNトレーニングパイプラインと互換性がある。
提案手法を用いて,SNNに対する教師なしのコントラスト学習の実現可能性を示す。
我々はニューロモルフィック・ビジョン・ベンチマークの総合的な実験を行い、NDAが過去の最先端の結果よりも大幅に改善したことを示す。
例えば、NDAベースのSNNは、CIFAR10-DVSとN-Caltech 101の精度をそれぞれ10.1%、13.7%向上させる。
関連論文リスト
- Membership Privacy Evaluation in Deep Spiking Neural Networks [32.42695393291052]
スパイキングニューラルネットワーク(SNN)は、非線形機能を持つニューロンを模倣して浮動小数点数を出力する。
本稿では,8つのMIAを考慮し,SNNのメンバシッププライバシを評価する。
ニューロモルフィックデータセットを用いてトレーニングした場合、SNNはANNよりも脆弱(最大攻撃精度は10%高い)であることが示される。
論文 参考訳(メタデータ) (2024-09-28T17:13:04Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Advancing Spiking Neural Networks towards Multiscale Spatiotemporal Interaction Learning [10.702093960098106]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)のエネルギー効率の良い代替品として機能する
我々は、マルチスケールの時間的相互作用情報をキャプチャするスパイキング・マルチスケール・アテンション(SMA)モジュールを設計した。
われわれのアプローチは、主流のニューラルネットワークで最先端の結果を得た。
論文 参考訳(メタデータ) (2024-05-22T14:16:05Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff [33.91830001268308]
スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Comparing SNNs and RNNs on Neuromorphic Vision Datasets: Similarities
and Differences [36.82069150045153]
スパイキングニューラルネットワーク(SNN)とリカレントニューラルネットワーク(RNN)は、ニューロモルフィックデータに基づいてベンチマークされる。
本研究では,SNNとRNNをニューロモルフィックデータと比較するための系統的研究を行う。
論文 参考訳(メタデータ) (2020-05-02T10:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。