論文の概要: DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training
- arxiv url: http://arxiv.org/abs/2003.06471v1
- Date: Fri, 13 Mar 2020 20:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 02:25:28.769320
- Title: DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training
- Title(参考訳): DNN+NeuroSim V2.0: オンチップトレーニングのためのコンピュータインメモリアクセラレータのためのエンドツーエンドベンチマークフレームワーク
- Authors: Xiaochen Peng, Shanshi Huang, Hongwu Jiang, Anni Lu, Shimeng Yu
- Abstract要約: NeuroSimは、ディープニューラルネットワークのための計算メモリ(CIM)アクセラレータをベンチマークするための統合フレームワークである。
pythonラッパーはNeuroSimと一般的な機械学習プラットフォームであるPytorchとをインターフェースするために開発されている。
- 参考スコア(独自算出の注目度): 4.555081317066413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DNN+NeuroSim is an integrated framework to benchmark compute-in-memory (CIM)
accelerators for deep neural networks, with hierarchical design options from
device-level, to circuit-level and up to algorithm-level. A python wrapper is
developed to interface NeuroSim with a popular machine learning platform:
Pytorch, to support flexible network structures. The framework provides
automatic algorithm-to-hardware mapping, and evaluates chip-level area, energy
efficiency and throughput for training or inference, as well as
training/inference accuracy with hardware constraints. Our prior work
(DNN+NeuroSim V1.1) was developed to estimate the impact of reliability in
synaptic devices, and analog-to-digital converter (ADC) quantization loss on
the accuracy and hardware performance of inference engines. In this work, we
further investigated the impact of the analog emerging non-volatile memory
non-ideal device properties for on-chip training. By introducing the
nonlinearity, asymmetry, device-to-device and cycle-to-cycle variation of
weight update into the python wrapper, and peripheral circuits for error/weight
gradient computation in NeuroSim core, we benchmarked CIM accelerators based on
state-of-the-art SRAM and eNVM devices for VGG-8 on CIFAR-10 dataset, revealing
the crucial specs of synaptic devices for on-chip training. The proposed
DNN+NeuroSim V2.0 framework is available on GitHub.
- Abstract(参考訳): dnn+neurosimは、ディープニューラルネットワークのためのcompute-in-memory(cim)アクセラレータをベンチマークするための統合フレームワークであり、デバイスレベルから回路レベル、アルゴリズムレベルまでの階層的設計オプションを備えている。
pythonラッパーは、neurosimと一般的な機械学習プラットフォームであるpytorchをインターフェースし、柔軟なネットワーク構造をサポートするために開発されている。
このフレームワークは、自動的なアルゴリズムからハードウェアへのマッピングを提供し、トレーニングや推論のためのチップレベル領域、エネルギー効率、スループット、ハードウェア制約によるトレーニング/推論精度を評価する。
我々の以前の研究(DNN+NeuroSim V1.1)は、シナプスデバイスにおける信頼性の影響を推定するために開発され、アナログ・デジタル変換器(ADC)の量子化損失が推論エンジンの精度とハードウェア性能に与える影響を推定した。
本研究では,非揮発性メモリ非理想的デバイス特性がオンチップトレーニングに与える影響について検討した。
我々はNuroSimコアの非線形性,非対称性,デバイス間およびサイクル間の重量更新の変動,およびエラー/重量勾配計算の周辺回路を導入することにより,CIFAR-10データセット上のVGG-8の最先端SRAMおよびeNVMデバイスに基づくCIMアクセラレータをベンチマークし,チップ上でのトレーニングにおいて重要なシナプスデバイス仕様を明らかにした。
提案されているDNN+NeuroSim V2.0フレームワークはGitHubで公開されている。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - SupeRBNN: Randomized Binary Neural Network Using Adiabatic
Superconductor Josephson Devices [44.440915387556544]
AQFPデバイスはバイナリニューラルネットワーク(BNN)計算の優れたキャリアとして機能する。
本稿では,AQFPに基づくランダム化BNNアクセラレーションフレームワークSupeRBNNを提案する。
本稿では,ReRAMベースのBNNフレームワークのエネルギー効率を約7.8×104倍に向上することを示す。
論文 参考訳(メタデータ) (2023-09-21T16:14:42Z) - CIMulator: A Comprehensive Simulation Platform for Computing-In-Memory
Circuit Macros with Low Bit-Width and Real Memory Materials [0.5325753548715747]
本稿では,ニューロモルフィック加速器における各種シナプスデバイスの有効性を定量化するためのシミュレーションプラットフォーム,CIMulatorを提案する。
抵抗性ランダムアクセスメモリ、強誘電体電界効果トランジスタ、揮発性静的ランダムアクセスメモリ装置などの不揮発性メモリ装置をシナプスデバイスとして選択することができる。
LeNet-5、VGG-16、C4W-1と呼ばれるカスタムCNNのような多層パーセプトロンと畳み込みニューラルネットワーク(CNN)をシミュレートし、これらのシナプスデバイスがトレーニングおよび推論結果に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-26T12:36:07Z) - AnalogNAS: A Neural Network Design Framework for Accurate Inference with
Analog In-Memory Computing [7.596833322764203]
エッジでの推論は低レイテンシ、コンパクト、電力効率のモデルを必要とする。
アナログ/混合信号インメモリコンピューティングハードウェアアクセラレータは、フォン・ノイマンアーキテクチャのメモリ壁を簡単に超越することができる。
本稿では,アナログインメモリコンピューティング(IMC)推論アクセラレータをターゲットとした,DNN(Deep Neural Network)自動設計のためのフレームワークであるAnalogNASを提案する。
論文 参考訳(メタデータ) (2023-05-17T07:39:14Z) - A Deep Neural Network Deployment Based on Resistive Memory Accelerator
Simulation [0.0]
本研究の目的は、Resistive RAM(ReRAM)内でディープニューラルネットワーク(DNN)をトレーニングする過程を説明することである。
CrossSim APIは、ソリューションの正確性に影響を与える可能性のある要因を考慮して、ニューラルネットワークをシミュレートするように設計されている。
論文 参考訳(メタデータ) (2023-04-22T07:29:02Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。