論文の概要: Making a Spiking Net Work: Robust brain-like unsupervised machine
learning
- arxiv url: http://arxiv.org/abs/2208.01204v1
- Date: Tue, 2 Aug 2022 02:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 12:46:34.017994
- Title: Making a Spiking Net Work: Robust brain-like unsupervised machine
learning
- Title(参考訳): スパイクネットワークを作る:ロバストな脳のような教師なし機械学習
- Authors: Peter G. Stratton, Andrew Wabnitz, Chip Essam, Allen Cheung and Tara
J. Hamilton
- Abstract要約: Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The surge in interest in Artificial Intelligence (AI) over the past decade
has been driven almost exclusively by advances in Artificial Neural Networks
(ANNs). While ANNs set state-of-the-art performance for many previously
intractable problems, they require large amounts of data and computational
resources for training, and since they employ supervised learning they
typically need to know the correctly labelled response for every training
example, limiting their scalability for real-world domains. Spiking Neural
Networks (SNNs) are an alternative to ANNs that use more brain-like artificial
neurons and can use unsupervised learning to discover recognizable features in
the input data without knowing correct responses. SNNs, however, struggle with
dynamical stability and cannot match the accuracy of ANNs. Here we show how an
SNN can overcome many of the shortcomings that have been identified in the
literature, including offering a principled solution to the vanishing spike
problem, to outperform all existing shallow SNNs and equal the performance of
an ANN. It accomplishes this while using unsupervised learning with unlabeled
data and only 1/50th of the training epochs (labelled data is used only for a
final simple linear readout layer). This result makes SNNs a viable new method
for fast, accurate, efficient, explainable, and re-deployable machine learning
with unlabeled datasets.
- Abstract(参考訳): 過去10年間の人工知能(AI)への関心の高まりは、ほぼ独占的に、ニューラルネットワーク(ANN)の進歩によって引き起こされている。
ANNは、多くの難解な問題に対して最先端のパフォーマンスを設定しているが、トレーニングには大量のデータと計算資源が必要であり、教師付き学習を採用するため、トレーニングの例ごとに正しくラベル付けされた応答を知る必要があり、実際のドメインのスケーラビリティを制限している。
スパイキングニューラルネットワーク(SNN)は、より脳に似た人工ニューロンを使用するANNの代替であり、教師なし学習を使用して、正しい応答を知らずに入力データの認識可能な特徴を発見することができる。
しかし、SNNは動的安定性に悩まされており、ANNの精度と一致しない。
ここでは、SNNが、消滅するスパイク問題に対する原則的解決策を提供することや、既存の浅いSNNを全て上回り、ANNの性能を同等にするために、文献で特定されている多くの欠点を克服する方法について示す。
ラベル付きデータの教師なし学習と、トレーニング期間の1/50分の1(ラベル付きデータは最後の単純な線形読み出し層でのみ使用される)を使用して、これを達成する。
この結果、snsは、ラベルなしデータセットで高速、正確、効率的、説明可能、再デプロイ可能な機械学習のための実行可能な新しい方法となる。
関連論文リスト
- BKDSNN: Enhancing the Performance of Learning-based Spiking Neural Networks Training with Blurred Knowledge Distillation [20.34272550256856]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークを模倣し、離散スパイクを介して情報を伝達する。
本研究は,静的およびニューロモルフィックなデータセット上でSNNをトレーニングするための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-12T08:17:24Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Continual Prune-and-Select: Class-incremental learning with specialized
subnetworks [66.4795381419701]
CP&S(Continuous-Prune-and-Select)は、ImageNet-1000から10タスクを逐次学習できる。
これは、クラス増分学習における第一級の結果である。
論文 参考訳(メタデータ) (2022-08-09T10:49:40Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - N-Omniglot: a Large-scale Neuromorphic Dataset for Spatio-Temporal
Sparse Few-shot Learning [10.812738608234321]
我々は、Dynamic Vision Sensor (DVS)を用いて、最初のニューロモルフィックデータセット、N-Omniglotを提供する。
1623種類の手書き文字が含まれており、クラスごとに20のサンプルしか持たない。
このデータセットは、数ショットの学習領域でSNNアルゴリズムを開発するための強力なチャレンジと適切なベンチマークを提供する。
論文 参考訳(メタデータ) (2021-12-25T12:41:34Z) - A Time Encoding approach to training Spiking Neural Networks [3.655021726150368]
スパイキングニューラルネットワーク(SNN)の人気が高まっている。
本稿では、時間符号化理論を用いて、SNNの理解と学習を支援する余分なツールを提供する。
論文 参考訳(メタデータ) (2021-10-13T14:07:11Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。