論文の概要: Towards Chip-in-the-loop Spiking Neural Network Training via
Metropolis-Hastings Sampling
- arxiv url: http://arxiv.org/abs/2402.06284v1
- Date: Fri, 9 Feb 2024 09:49:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:31:32.315989
- Title: Towards Chip-in-the-loop Spiking Neural Network Training via
Metropolis-Hastings Sampling
- Title(参考訳): metropolis-hastingsサンプリングによるチップ・イン・ザ・ループスパイクニューラルネットワークトレーニング
- Authors: Ali Safa, Vikrant Jaltare, Samira Sebt, Kameron Gano, Johannes
Leugering, Georges Gielen, Gert Cauwenberghs
- Abstract要約: 本稿では,SNN(Spking Neural Network)ハードウェアのトレーニングにおけるメトロポリス・ハスティングスサンプリングの利用について検討する。
提案手法は,ハードウエアの非理想性が高い場合,バックプロップの使用率を最大27%高い精度で向上させる。
- 参考スコア(独自算出の注目度): 0.9025833922570009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the use of Metropolis-Hastings sampling for training
Spiking Neural Network (SNN) hardware subject to strong unknown non-idealities,
and compares the proposed approach to the common use of the backpropagation of
error (backprop) algorithm and surrogate gradients, widely used to train SNNs
in literature. Simulations are conducted within a chip-in-the-loop training
context, where an SNN subject to unknown distortion must be trained to detect
cancer from measurements, within a biomedical application context. Our results
show that the proposed approach strongly outperforms the use of backprop by up
to $27\%$ higher accuracy when subject to strong hardware non-idealities.
Furthermore, our results also show that the proposed approach outperforms
backprop in terms of SNN generalization, needing $>10 \times$ less training
data for achieving effective accuracy. These findings make the proposed
training approach well-suited for SNN implementations in analog subthreshold
circuits and other emerging technologies where unknown hardware non-idealities
can jeopardize backprop.
- Abstract(参考訳): 本稿では,スパイキングニューラルネットワーク(SNN)ハードウェアのトレーニングにおけるメトロポリス・ハスティングスサンプリングの利用について検討し,提案手法を誤り(バックプロップ)アルゴリズムのバックプロパゲーションと,文献におけるSNNのトレーニングに広く用いられているサロゲート勾配の共通利用と比較する。
シミュレーションはチップ・イン・ザ・ループのトレーニング・コンテキスト内で行われ、そこでは、未知の歪みを受けるSNNを、生体医学的応用コンテキスト内で、測定からがんを検出するために訓練する必要がある。
その結果,提案手法は,ハードウエアの非理想性が強い場合,バックプロップの使用を最大27%高い精度で上回ることがわかった。
さらに,提案手法はsn一般化の面ではバックプロップよりも優れており,効果的な精度を得るためには10 \times$のトレーニングデータが必要であった。
これらの結果から,未知のハードウェア非イデオロギーがバックプロップを危険にさらすような,アナログサブスレッショルド回路や他の新興技術におけるSNN実装に適したトレーニング手法が提案されている。
関連論文リスト
- Training Spiking Neural Networks via Augmented Direct Feedback Alignment [3.798885293742468]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックデバイスにニューラルネットワークを実装するための有望なソリューションである。
しかし、SNNニューロンの非分化性は、それらを訓練することを困難にしている。
本稿では、ランダムなプロジェクションに基づく勾配のないアプローチである拡張直接フィードバックアライメント(aDFA)を用いてSNNの訓練を行う。
論文 参考訳(メタデータ) (2024-09-12T06:22:44Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Efficient Bayes Inference in Neural Networks through Adaptive Importance
Sampling [19.518237361775533]
BNNでは、トレーニング段階で、未知の重みとバイアスパラメータの完全な後部分布が生成される。
この機能は、数え切れないほどの機械学習アプリケーションに役立ちます。
医療医療や自動運転など、意思決定に重大な影響を及ぼす分野において特に魅力的である。
論文 参考訳(メタデータ) (2022-10-03T14:59:23Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Sketching Curvature for Efficient Out-of-Distribution Detection for Deep
Neural Networks [32.629801680158685]
Sketching Curvature of OoD Detection (SCOD)は、訓練されたディープニューラルネットワークにタスク関連不確実性推定を装備するためのアーキテクチャに依存しないフレームワークである。
SCODは,既存のベースラインと比較して計算負担の少ないOoD検出性能の同等あるいは優れたOoD検出性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-02-24T21:34:40Z) - Selfish Sparse RNN Training [13.165729746380816]
本稿では,1回のランでパラメータ数を固定したスパースRNNを,性能を損なうことなく訓練する手法を提案する。
我々はPenn TreeBankとWikitext-2の様々なデータセットを用いて最先端のスパーストレーニング結果を得る。
論文 参考訳(メタデータ) (2021-01-22T10:45:40Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。