論文の概要: Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware
- arxiv url: http://arxiv.org/abs/2006.13177v3
- Date: Wed, 1 Jul 2020 15:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:25:04.979164
- Title: Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware
- Title(参考訳): アナログニューロモルフィックハードウェアを用いたニューラルネットワークによる推論
- Authors: Johannes Weis, Philipp Spilger, Sebastian Billaudelle, Yannik
Stradmann, Arne Emmel, Eric M\"uller, Oliver Breitwieser, Andreas Gr\"ubl,
Joscha Ilmberger, Vitali Karasenko, Mitja Kleider, Christian Mauch, Korbinian
Schreiber, Johannes Schemmel
- Abstract要約: BrainScaleS-2 ASICは混合信号ニューロンとシナプス回路から構成される。
システムは、人工ニューラルネットワークのベクトル行列乗算と累積モードでも動作する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The neuromorphic BrainScaleS-2 ASIC comprises mixed-signal neurons and
synapse circuits as well as two versatile digital microprocessors. Primarily
designed to emulate spiking neural networks, the system can also operate in a
vector-matrix multiplication and accumulation mode for artificial neural
networks. Analog multiplication is carried out in the synapse circuits, while
the results are accumulated on the neurons' membrane capacitors. Designed as an
analog, in-memory computing device, it promises high energy efficiency.
Fixed-pattern noise and trial-to-trial variations, however, require the
implemented networks to cope with a certain level of perturbations. Further
limitations are imposed by the digital resolution of the input values (5 bit),
matrix weights (6 bit) and resulting neuron activations (8 bit). In this paper,
we discuss BrainScaleS-2 as an analog inference accelerator and present
calibration as well as optimization strategies, highlighting the advantages of
training with hardware in the loop. Among other benchmarks, we classify the
MNIST handwritten digits dataset using a two-dimensional convolution and two
dense layers. We reach 98.0% test accuracy, closely matching the performance of
the same network evaluated in software.
- Abstract(参考訳): 神経型BrainScaleS-2ASICは、混合信号ニューロンとシナプス回路と、2つの汎用デジタルマイクロプロセッサからなる。
主にスパイクニューラルネットワークをエミュレートするために設計されたこのシステムは、人工ニューラルネットワークのベクトル行列乗算および蓄積モードでも動作することができる。
アナログ乗算はシナプス回路で行われ、その結果は神経細胞の膜コンデンサに蓄積される。
アナログのインメモリコンピューティングデバイスとして設計され、高エネルギー効率を実現する。
しかし、固定パターンノイズと試行錯誤の変動は、実装されたネットワークがある程度の摂動に対処する必要がある。
さらに、入力値(5ビット)、行列重み(6ビット)、ニューロン活性化(8ビット)のデジタル解像度によって、さらなる制限が課される。
本稿では,アナログ推論アクセラレーションとしてのbrainscales-2について論じ,最適化戦略とともに,ループ内のハードウェアによるトレーニングの利点を強調する。
その他のベンチマークでは、2次元畳み込みと2つの高密度層を用いてMNIST手書き桁データセットを分類する。
テスト精度は98.0%に達し、ソフトウェアで評価された同一ネットワークの性能と密に一致した。
関連論文リスト
- Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - CIMulator: A Comprehensive Simulation Platform for Computing-In-Memory
Circuit Macros with Low Bit-Width and Real Memory Materials [0.5325753548715747]
本稿では,ニューロモルフィック加速器における各種シナプスデバイスの有効性を定量化するためのシミュレーションプラットフォーム,CIMulatorを提案する。
抵抗性ランダムアクセスメモリ、強誘電体電界効果トランジスタ、揮発性静的ランダムアクセスメモリ装置などの不揮発性メモリ装置をシナプスデバイスとして選択することができる。
LeNet-5、VGG-16、C4W-1と呼ばれるカスタムCNNのような多層パーセプトロンと畳み込みニューラルネットワーク(CNN)をシミュレートし、これらのシナプスデバイスがトレーニングおよび推論結果に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-26T12:36:07Z) - Learning Based Joint Coding-Modulation for Digital Semantic
Communication Systems [45.81474044790071]
学習に基づくセマンティックコミュニケーションでは、ニューラルネットワークは従来の通信システムで異なるビルディングブロックを置き換える。
ニューラルネットワークに基づくデジタル変調の本質的なメカニズムは、ニューラルネットワークエンコーダの連続的な出力を離散的なコンステレーションシンボルにマッピングすることである。
我々は,BPSK変調を用いたディジタルセマンティック通信のための共同符号化変調方式を開発した。
論文 参考訳(メタデータ) (2022-08-11T08:58:35Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Supervised training of spiking neural networks for robust deployment on
mixed-signal neuromorphic processors [2.6949002029513167]
混合信号アナログ/デジタル電子回路はスパイキングニューロンやシナプスを非常に高いエネルギー効率でエミュレートすることができる。
ミスマッチは、同一構成ニューロンとシナプスの効果的なパラメータの違いとして表現される。
ミスマッチに対する堅牢性や,その他の一般的なノイズ源を最大化することで,この課題に対処する,教師付き学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-12T09:20:49Z) - Surrogate gradients for analog neuromorphic computing [2.6475944316982942]
デバイスミスマッチに対する自己修正学習は,視覚と音声のベンチマークにおいて,競争力のあるネットワーク性能をもたらすことを示す。
我々の研究は、アナログニューロモルフィックハードウェア上での低エネルギースパイクネットワーク処理のための新しいベンチマークをいくつか設定する。
論文 参考訳(メタデータ) (2020-06-12T14:45:12Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Accelerated Analog Neuromorphic Computing [0.0]
本稿では,BrainScales (BSS) を加速したアナログニューロモルフィックコンピューティングアーキテクチャの背景にある概念について述べる。
第2世代のBrainScales-2(BSS-2)と、その最新のシリコン内実現であるHICANN-Xアプリケーション固有集積回路(ASIC)について述べる。
提示されたアーキテクチャは、ニューロンとシナプスの連続的、アナログ的、物理モデルの実装に基づいている。
論文 参考訳(メタデータ) (2020-03-26T16:00:55Z) - Structural plasticity on an accelerated analog neuromorphic hardware
system [0.46180371154032884]
我々は, プレ・グポストシナプスのパートナーを常に切り替えることにより, 構造的可塑性を達成するための戦略を提案する。
我々はこのアルゴリズムをアナログニューロモルフィックシステムBrainScaleS-2に実装した。
ネットワークトポロジを最適化する能力を示し、簡単な教師付き学習シナリオで実装を評価した。
論文 参考訳(メタデータ) (2019-12-27T10:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。