論文の概要: Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware
- arxiv url: http://arxiv.org/abs/2006.13177v3
- Date: Wed, 1 Jul 2020 15:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:25:04.979164
- Title: Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware
- Title(参考訳): アナログニューロモルフィックハードウェアを用いたニューラルネットワークによる推論
- Authors: Johannes Weis, Philipp Spilger, Sebastian Billaudelle, Yannik
Stradmann, Arne Emmel, Eric M\"uller, Oliver Breitwieser, Andreas Gr\"ubl,
Joscha Ilmberger, Vitali Karasenko, Mitja Kleider, Christian Mauch, Korbinian
Schreiber, Johannes Schemmel
- Abstract要約: BrainScaleS-2 ASICは混合信号ニューロンとシナプス回路から構成される。
システムは、人工ニューラルネットワークのベクトル行列乗算と累積モードでも動作する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The neuromorphic BrainScaleS-2 ASIC comprises mixed-signal neurons and
synapse circuits as well as two versatile digital microprocessors. Primarily
designed to emulate spiking neural networks, the system can also operate in a
vector-matrix multiplication and accumulation mode for artificial neural
networks. Analog multiplication is carried out in the synapse circuits, while
the results are accumulated on the neurons' membrane capacitors. Designed as an
analog, in-memory computing device, it promises high energy efficiency.
Fixed-pattern noise and trial-to-trial variations, however, require the
implemented networks to cope with a certain level of perturbations. Further
limitations are imposed by the digital resolution of the input values (5 bit),
matrix weights (6 bit) and resulting neuron activations (8 bit). In this paper,
we discuss BrainScaleS-2 as an analog inference accelerator and present
calibration as well as optimization strategies, highlighting the advantages of
training with hardware in the loop. Among other benchmarks, we classify the
MNIST handwritten digits dataset using a two-dimensional convolution and two
dense layers. We reach 98.0% test accuracy, closely matching the performance of
the same network evaluated in software.
- Abstract(参考訳): 神経型BrainScaleS-2ASICは、混合信号ニューロンとシナプス回路と、2つの汎用デジタルマイクロプロセッサからなる。
主にスパイクニューラルネットワークをエミュレートするために設計されたこのシステムは、人工ニューラルネットワークのベクトル行列乗算および蓄積モードでも動作することができる。
アナログ乗算はシナプス回路で行われ、その結果は神経細胞の膜コンデンサに蓄積される。
アナログのインメモリコンピューティングデバイスとして設計され、高エネルギー効率を実現する。
しかし、固定パターンノイズと試行錯誤の変動は、実装されたネットワークがある程度の摂動に対処する必要がある。
さらに、入力値(5ビット)、行列重み(6ビット)、ニューロン活性化(8ビット)のデジタル解像度によって、さらなる制限が課される。
本稿では,アナログ推論アクセラレーションとしてのbrainscales-2について論じ,最適化戦略とともに,ループ内のハードウェアによるトレーニングの利点を強調する。
その他のベンチマークでは、2次元畳み込みと2つの高密度層を用いてMNIST手書き桁データセットを分類する。
テスト精度は98.0%に達し、ソフトウェアで評価された同一ネットワークの性能と密に一致した。
関連論文リスト
- POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Supervised training of spiking neural networks for robust deployment on
mixed-signal neuromorphic processors [2.6949002029513167]
混合信号アナログ/デジタル電子回路はスパイキングニューロンやシナプスを非常に高いエネルギー効率でエミュレートすることができる。
ミスマッチは、同一構成ニューロンとシナプスの効果的なパラメータの違いとして表現される。
ミスマッチに対する堅牢性や,その他の一般的なノイズ源を最大化することで,この課題に対処する,教師付き学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-12T09:20:49Z) - Training of mixed-signal optical convolutional neural network with
reduced quantization level [1.3381749415517021]
アナログ行列乗算加速器を用いた混合信号人工ニューラルネットワーク(ANN)は、高速化と電力効率の向上を実現することができる。
本稿では、アナログ信号の2種類の誤り、ランダムノイズ、決定論的誤り(歪み)を含む混合信号ANNの訓練方法について報告する。
その結果,提案手法で訓練した混合信号ANNは,理想量子化ステップの最大50%のノイズレベルで等価な分類精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-08-20T20:46:22Z) - Multi-Tones' Phase Coding (MTPC) of Interaural Time Difference by
Spiking Neural Network [68.43026108936029]
雑音の多い実環境下での正確な音像定位のための純粋スパイクニューラルネットワーク(SNN)に基づく計算モデルを提案する。
このアルゴリズムを,マイクロホンアレイを用いたリアルタイムロボットシステムに実装する。
実験の結果, 平均誤差方位は13度であり, 音源定位に対する他の生物学的に妥当なニューロモルフィックアプローチの精度を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-07T08:22:56Z) - Surrogate gradients for analog neuromorphic computing [2.6475944316982942]
デバイスミスマッチに対する自己修正学習は,視覚と音声のベンチマークにおいて,競争力のあるネットワーク性能をもたらすことを示す。
我々の研究は、アナログニューロモルフィックハードウェア上での低エネルギースパイクネットワーク処理のための新しいベンチマークをいくつか設定する。
論文 参考訳(メタデータ) (2020-06-12T14:45:12Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z) - Accelerated Analog Neuromorphic Computing [0.0]
本稿では,BrainScales (BSS) を加速したアナログニューロモルフィックコンピューティングアーキテクチャの背景にある概念について述べる。
第2世代のBrainScales-2(BSS-2)と、その最新のシリコン内実現であるHICANN-Xアプリケーション固有集積回路(ASIC)について述べる。
提示されたアーキテクチャは、ニューロンとシナプスの連続的、アナログ的、物理モデルの実装に基づいている。
論文 参考訳(メタデータ) (2020-03-26T16:00:55Z) - Verification and Design Methods for the BrainScaleS Neuromorphic
Hardware System [0.0]
第2世代のBrainScaleSチップは、完全なアナログニューロモルフィック回路と2つの汎用マイクロプロセッサの密結合を有する混合信号デバイスである。
512ニューロンと130Kシナプスを含む第1次BrainScaleS-2 ASICの早期成績を示し,これらの手法の応用を実証した。
論文 参考訳(メタデータ) (2020-03-25T15:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。