論文の概要: TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training
- arxiv url: http://arxiv.org/abs/2401.08001v1
- Date: Mon, 15 Jan 2024 23:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:34:44.238791
- Title: TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training
- Title(参考訳): TT-SNN:効率的なスパイクニューラルネットワークトレーニングのためのテンソルトレイン分解
- Authors: Donghyun Lee, Ruokai Yin, Youngeun Kim, Abhishek Moitra, Yuhang Li,
Priyadarshini Panda
- Abstract要約: スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
- 参考スコア(独自算出の注目度): 27.565726483503838
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking Neural Networks (SNNs) have gained significant attention as a
potentially energy-efficient alternative for standard neural networks with
their sparse binary activation. However, SNNs suffer from memory and
computation overhead due to spatio-temporal dynamics and multiple
backpropagation computations across timesteps during training. To address this
issue, we introduce Tensor Train Decomposition for Spiking Neural Networks
(TT-SNN), a method that reduces model size through trainable weight
decomposition, resulting in reduced storage, FLOPs, and latency. In addition,
we propose a parallel computation pipeline as an alternative to the typical
sequential tensor computation, which can be flexibly integrated into various
existing SNN architectures. To the best of our knowledge, this is the first of
its kind application of tensor decomposition in SNNs. We validate our method
using both static and dynamic datasets, CIFAR10/100 and N-Caltech101,
respectively. We also propose a TT-SNN-tailored training accelerator to fully
harness the parallelism in TT-SNN. Our results demonstrate substantial
reductions in parameter size (7.98X), FLOPs (9.25X), training time (17.7%), and
training energy (28.3%) during training for the N-Caltech101 dataset, with
negligible accuracy degradation.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、疎二元活性化を伴う標準ニューラルネットワークの潜在的エネルギー効率の代替手段として注目されている。
しかし、snsは時空間ダイナミクスとトレーニング中の時間ステップにわたる複数のバックプロパゲーション計算のために記憶と計算のオーバーヘッドに苦しむ。
この問題に対処するために、トレーニング可能な重み分解によりモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減したTT-SNN(Tensor Train Decomposition for Spiking Neural Networks)を導入する。
さらに,従来のSNNアーキテクチャに柔軟に統合可能な,典型的な逐次テンソル計算の代替として並列計算パイプラインを提案する。
我々の知る限りでは、SNNにおけるテンソル分解のこの種の応用としてはこれが初めてである。
静的および動的データセットであるCIFAR10/100とN-Caltech101を用いて評価を行った。
また、TT-SNNの並列性を完全に活用するためのTT-SNN調整トレーニングアクセラレータを提案する。
その結果,N-Caltech101データセットのトレーニングにおいて,パラメータサイズ (7.98X), FLOPs (9.25X), トレーニング時間 (17.7%), トレーニングエネルギー (28.3%) の大幅な削減が認められた。
関連論文リスト
- High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Variational Tensor Neural Networks for Deep Learning [0.0]
深部ニューラルネットワーク(NN)へのテンソルネットワーク(TN)の統合を提案する。
これにより、大きなパラメータ空間上で効率的にトレーニングできるスケーラブルなテンソルニューラルネットワーク(TNN)アーキテクチャが実現される。
我々はTNNモデルを設計し、線形および非線形回帰、データ分類、MNIST手書き桁の画像認識のためのベンチマーク結果を提供することにより、提案手法の精度と効率を検証した。
論文 参考訳(メタデータ) (2022-11-26T20:24:36Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Revisiting Batch Normalization for Training Low-latency Deep Spiking
Neural Networks from Scratch [5.511606249429581]
ディープラーニングの代替手段としてスパイキングニューラルネットワーク(SNN)が登場している。
スクラッチからの高精度で低遅延のSNNは、スパイキングニューロンの非分化性の性質に悩まされる。
本稿では、時間的SNNのトレーニングのための時間的バッチ正規化(BNTT)手法を提案する。
論文 参考訳(メタデータ) (2020-10-05T00:49:30Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。