論文の概要: Rethinking Residual Connection in Training Large-Scale Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2311.05171v1
- Date: Thu, 9 Nov 2023 06:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 15:52:50.151061
- Title: Rethinking Residual Connection in Training Large-Scale Spiking Neural
Networks
- Title(参考訳): 大規模スパイクニューラルネットワークの訓練における残留接続の再考
- Authors: Yudong Li, Yunlin Lei, Xu Yang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、最も有名な脳にインスパイアされたモデルとして知られている。
非微分可能なスパイク機構により、大規模SNNの訓練が困難になる。
- 参考スコア(独自算出の注目度): 10.286425749417216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Network (SNN) is known as the most famous brain-inspired
model, but the non-differentiable spiking mechanism makes it hard to train
large-scale SNNs. To facilitate the training of large-scale SNNs, many training
methods are borrowed from Artificial Neural Networks (ANNs), among which deep
residual learning is the most commonly used. But the unique features of SNNs
make prior intuition built upon ANNs not available for SNNs. Although there are
a few studies that have made some pioneer attempts on the topology of Spiking
ResNet, the advantages of different connections remain unclear. To tackle this
issue, we analyze the merits and limitations of various residual connections
and empirically demonstrate our ideas with extensive experiments. Then, based
on our observations, we abstract the best-performing connections into densely
additive (DA) connection, extend such a concept to other topologies, and
propose four architectures for training large-scale SNNs, termed DANet, which
brings up to 13.24% accuracy gain on ImageNet. Besides, in order to present a
detailed methodology for designing the topology of large-scale SNNs, we further
conduct in-depth discussions on their applicable scenarios in terms of their
performance on various scales of datasets and demonstrate their advantages over
prior architectures. At a low training expense, our best-performing
ResNet-50/101/152 obtain 73.71%/76.13%/77.22% top-1 accuracy on ImageNet with 4
time steps. We believe that this work shall give more insights for future works
to design the topology of their networks and promote the development of
large-scale SNNs. The code will be publicly available.
- Abstract(参考訳): spiking neural network (snn)は、最も有名な脳に触発されたモデルとして知られている。
大規模SNNの訓練を容易にするため,多くのトレーニング手法が人工ニューラルネットワーク(ANN)から借用されている。
しかし、SNNのユニークな特徴は、SNNでは利用できないANNに事前の直観を組み込むことである。
spiking resnetのトポロジーについていくつかの先駆的な試みを行った研究があるが、異なる接続の利点はいまだに不明である。
この問題に取り組むために,様々なコネクションのメリットと限界を分析し,広範な実験で実証的にアイデアを実証する。
そこで,我々は,最も優れた接続を高密度付加性(DA)接続に抽象化し,その概念を他のトポロジに拡張し,大規模SNNをトレーニングするための4つのアーキテクチャを提案し,これをDANetと呼び,13.24%の精度向上を実現した。
さらに、大規模SNNのトポロジを設計するための詳細な方法論を示すため、様々なスケールのデータセットのパフォーマンスの観点から、それらの適用シナリオについて詳細な議論を行い、先行アーキテクチャよりもその利点を実証する。
トレーニングコストが低い場合には、最高のパフォーマンスのResNet-50/101/152が、ImageNetの73.71%/76.13%/77.22%のトップ-1の精度を4ステップで取得します。
本研究は今後,ネットワークのトポロジを設計し,大規模SNNの開発を促進するための知見を与えるだろうと考えている。
コードは公開される予定だ。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Joint A-SNN: Joint Training of Artificial and Spiking Neural Networks
via Self-Distillation and Weight Factorization [12.1610509770913]
スパイクニューラルネットワーク(SNN)は、脳ニューロンのスパイク特性を模倣する。
我々は、ANNとSNNの合同トレーニングフレームワークを提案し、ANNはSNNの最適化をガイドできる。
我々の手法は、他の多くの最先端の訓練方法より一貫して優れています。
論文 参考訳(メタデータ) (2023-05-03T13:12:17Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Federated Learning with Spiking Neural Networks [13.09613811272936]
従来のニューラルネットワーク(ANN)に代わるエネルギー効率の高い代替手段として、スパイキングニューラルネットワーク(SNN)が登場している
SNNの分散・プライバシ保護トレーニングのための連合学習フレームワークを提案する。
フェデレーションにおいて,データを多数のクライアントに分散した場合,SNNが全体の精度で15%以上向上することが観察された。
論文 参考訳(メタデータ) (2021-06-11T19:00:58Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。