論文の概要: Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization
- arxiv url: http://arxiv.org/abs/2102.03280v1
- Date: Fri, 5 Feb 2021 16:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:45:17.716991
- Title: Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization
- Title(参考訳): 一般化期待最大化に基づくスパイキングニューラルネットワークのマルチサンプルオンライン学習
- Authors: Hyeryung Jang and Osvaldo Simeone
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
- 参考スコア(独自算出の注目度): 42.125394498649015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a novel computational paradigm that
captures some of the efficiency of biological brains by processing through
binary neural dynamic activations. Probabilistic SNN models are typically
trained to maximize the likelihood of the desired outputs by using unbiased
estimates of the log-likelihood gradients. While prior work used single-sample
estimators obtained from a single run of the network, this paper proposes to
leverage multiple compartments that sample independent spiking signals while
sharing synaptic weights. The key idea is to use these signals to obtain more
accurate statistical estimates of the log-likelihood training criterion, as
well as of its gradient. The approach is based on generalized
expectation-maximization (GEM), which optimizes a tighter approximation of the
log-likelihood using importance sampling. The derived online learning algorithm
implements a three-factor rule with global per-compartment learning signals.
Experimental results on a classification task on the neuromorphic MNIST-DVS
data set demonstrate significant improvements in terms of log-likelihood,
accuracy, and calibration when increasing the number of compartments used for
training and inference.
- Abstract(参考訳): spiking neural networks (snns) は、二元神経のダイナミックアクティベーションによる処理により、生体脳の効率の一部をキャプチャする新しい計算パラダイムを提供する。
確率的snモデルは通常、ログ様勾配の偏りのない推定を用いて所望の出力の可能性を最大化するために訓練される。
本論文では, シングルサンプル推定器を用いて, シナプス重みを共有しながら, 独立したスパイク信号をサンプリングする複数のコンパートメントを利用する方法を提案する。
重要なアイデアは、これらの信号を使用して、ログ類似トレーニング基準とその勾配のより正確な統計的推定を得ることです。
この手法は、重大サンプリングを用いてログのより厳密な近似を最適化する一般化予測最大化(GEM)に基づいている。
オンライン学習アルゴリズムは,グローバルな構成ごとの学習信号を用いた3要素ルールを実装している。
ニューロモルフィックMNIST-DVSデータセットの分類タスクに関する実験結果は、トレーニングおよび推論に使用されるコンパートメントの数を増やす際に、ログの類似性、正確性、および校正の点で有意な改善を示す。
関連論文リスト
- YOSO: You-Only-Sample-Once via Compressed Sensing for Graph Neural Network Training [9.02251811867533]
YOSO(You-Only-Sample-Once)は、予測精度を維持しながら効率的なトレーニングを実現するアルゴリズムである。
YOSOは、正規直交基底計算のような従来の圧縮センシング(CS)法で高価な計算を避けるだけでなく、高い確率精度の保持も保証している。
論文 参考訳(メタデータ) (2024-11-08T16:47:51Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Censored Quantile Regression Neural Networks [24.118509578363593]
本稿では,ニューラルネットワーク(NN)を用いた検閲データに対する量子レグレッションの実施について考察する。
線形モデルで人気のあるアルゴリズムをNNに適用する方法を示す。
我々の主な貢献は、単一のNNによって出力される量子のグリッドを同時に最適化する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2022-05-26T17:10:28Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。