論文の概要: Gated Attention Coding for Training High-performance and Efficient
Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2308.06582v1
- Date: Sat, 12 Aug 2023 14:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 16:35:17.897879
- Title: Gated Attention Coding for Training High-performance and Efficient
Spiking Neural Networks
- Title(参考訳): 高速かつ効率的なスパイクニューラルネットワークの学習のためのゲーテッドアテンション符号化
- Authors: Xuerui Qiu, Rui-Jie Zhu, Yuhong Chou, Zhaorui Wang, Liang-jian Deng,
Guoqi Li
- Abstract要約: 従来の人工ニューラルネットワーク(ANN)に代わるエネルギー効率の高い代替手段として、スパイキングニューラルネットワーク(SNN)が登場している
Gated Attention Coding (GAC) は多次元アテンションユニットを利用して入力を効率よく強力な表現に符号化するプラグイン・アンド・プレイモジュールである。
GACは、SNNのスパイク駆動特性を阻害しない前処理層として機能し、最小限の変更で効率的なニューロモルフィックの実装を可能にする。
- 参考スコア(独自算出の注目度): 24.02076426790748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are emerging as an energy-efficient
alternative to traditional artificial neural networks (ANNs) due to their
unique spike-based event-driven nature. Coding is crucial in SNNs as it
converts external input stimuli into spatio-temporal feature sequences.
However, most existing deep SNNs rely on direct coding that generates powerless
spike representation and lacks the temporal dynamics inherent in human vision.
Hence, we introduce Gated Attention Coding (GAC), a plug-and-play module that
leverages the multi-dimensional gated attention unit to efficiently encode
inputs into powerful representations before feeding them into the SNN
architecture. GAC functions as a preprocessing layer that does not disrupt the
spike-driven nature of the SNN, making it amenable to efficient neuromorphic
hardware implementation with minimal modifications. Through an observer model
theoretical analysis, we demonstrate GAC's attention mechanism improves
temporal dynamics and coding efficiency. Experiments on CIFAR10/100 and
ImageNet datasets demonstrate that GAC achieves state-of-the-art accuracy with
remarkable efficiency. Notably, we improve top-1 accuracy by 3.10\% on CIFAR100
with only 6-time steps and 1.07\% on ImageNet while reducing energy usage to
66.9\% of the previous works. To our best knowledge, it is the first time to
explore the attention-based dynamic coding scheme in deep SNNs, with
exceptional effectiveness and efficiency on large-scale datasets.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、独自のスパイクベースのイベント駆動性のため、従来の人工知能ニューラルネットワーク(ANN)に代わるエネルギー効率の高い代替品として登場している。
外部入力刺激を時空間の特徴系列に変換するため、SNNでは符号化が重要である。
しかし、既存のディープSNNの多くは、パワーレススパイク表現を生成するダイレクトコーディングに依存しており、人間の視覚に固有の時間的ダイナミクスを欠いている。
そこで本研究では,多次元ゲートアテンションユニットを利用して,入力を強力な表現に効率的にエンコードし,snnアーキテクチャに供給するプラグアンドプレイモジュールであるgated attention coding (gac)を導入する。
GACは、SNNのスパイク駆動性を破壊しない前処理層として機能し、最小限の変更で効率的なニューロモルフィックハードウェアの実装を可能にする。
観測者モデル理論解析により,GACの注意機構が時間的ダイナミクスと符号化効率を向上させることを示す。
CIFAR10/100とImageNetデータセットの実験では、GACが最先端の精度を目覚ましい効率で達成している。
特に、CIFAR100でトップ1の精度を3.10\%改善し、ImageNetで1.07\%、エネルギー使用量を66.9\%に削減した。
我々の知る限りでは、大規模データセットにおいて例外的な効率と効率で、注目に基づく動的符号化方式を深層SNNで探求するのは初めてである。
関連論文リスト
- Adaptive Calibration: A Unified Conversion Framework of Spiking Neural Network [1.5215973379400674]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワーク(ANN)の代替としてエネルギー効率が高いと見なされる
変換されたSNNの性能と効率を大幅に向上させる一貫した学習自由変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T09:38:54Z) - Scaling Spike-driven Transformer with Efficient Spike Firing Approximation Training [17.193023656793464]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)の野望は、従来のニューラルネットワーク(ANN)に代わる低消費電力な代替手段になることである。
この作業は、SNNとANNのパフォーマンスギャップと、SNNの高トレーニングコストという、このビジョンを実現する上での2つの大きな課題に対処する。
本研究では,2次発火機構によるスパイクニューロンの固有の欠陥を同定し,整数学習とスパイク駆動推論を用いたスパイクフィリング近似(SFA)法を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:05:41Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Training Energy-Efficient Deep Spiking Neural Networks with Single-Spike
Hybrid Input Encoding [5.725845886457027]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型ニューロモルフィックハードウェアにおいて高い計算効率を提供する。
SNNは、非効率な入力符号化とトレーニング技術により、高い推論遅延に悩まされる。
本稿では低遅延エネルギー効率SNNのためのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T06:16:40Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Going Deeper With Directly-Trained Larger Spiking Neural Networks [20.40894876501739]
スパイキングニューラルネットワーク(SNN)は、バイオユースブルな情報とイベント駆動信号処理のためのコーディングを約束している。
しかし、SNNのユニークな動作モードにより、従来のネットワークよりもトレーニングが困難になる。
CIF依存型バッチ正規化法(tpladBN)を提案する。
論文 参考訳(メタデータ) (2020-10-29T07:15:52Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。