論文の概要: NeuroSim V1.5: Improved Software Backbone for Benchmarking Compute-in-Memory Accelerators with Device and Circuit-level Non-idealities
- arxiv url: http://arxiv.org/abs/2505.02314v1
- Date: Mon, 05 May 2025 02:07:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.544342
- Title: NeuroSim V1.5: Improved Software Backbone for Benchmarking Compute-in-Memory Accelerators with Device and Circuit-level Non-idealities
- Title(参考訳): NeuroSim V1.5: デバイスと回路レベルの非イデオロギーによるメモリ内加速器ベンチマークのためのソフトウェアバックボーンの改善
- Authors: James Read, Ming-Yen Lee, Wei-Hsing Huang, Yuan-Chun Luo, Anni Lu, Shimeng Yu,
- Abstract要約: 本稿では,デバイスレベルおよび回路レベルの非理想性において重要な進歩をもたらすNeuroSim V1.5を提案する。
NeuroSim V1.5は次世代のACIMアクセラレータの設計と検証を推進している。
NeuroSimのすべてのバージョンはhttps://github.com/neurosim/NeuroSimでオープンソース公開されている。
- 参考スコア(独自算出の注目度): 2.141889595429907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exponential growth of artificial intelligence (AI) applications has exposed the inefficiency of conventional von Neumann architectures, where frequent data transfers between compute units and memory create significant energy and latency bottlenecks. Analog Computing-in-Memory (ACIM) addresses this challenge by performing multiply-accumulate (MAC) operations directly in the memory arrays, substantially reducing data movement. However, designing robust ACIM accelerators requires accurate modeling of device- and circuit-level non-idealities. In this work, we present NeuroSim V1.5, introducing several key advances: (1) seamless integration with TensorRT's post-training quantization flow enabling support for more neural networks including transformers, (2) a flexible noise injection methodology built on pre-characterized statistical models, making it straightforward to incorporate data from SPICE simulations or silicon measurements, (3) expanded device support including emerging non-volatile capacitive memories, and (4) up to 6.5x faster runtime than NeuroSim V1.4 through optimized behavioral simulation. The combination of these capabilities uniquely enables systematic design space exploration across both accuracy and hardware efficiency metrics. Through multiple case studies, we demonstrate optimization of critical design parameters while maintaining network accuracy. By bridging high-fidelity noise modeling with efficient simulation, NeuroSim V1.5 advances the design and validation of next-generation ACIM accelerators. All NeuroSim versions are available open-source at https://github.com/neurosim/NeuroSim.
- Abstract(参考訳): 人工知能(AI)応用の指数関数的成長は、計算ユニットとメモリ間の頻繁なデータ転送が重要なエネルギーと遅延ボトルネックを生み出す従来のフォン・ノイマンアーキテクチャの非効率性を露呈している。
アナログ・コンピューティング・イン・メモリ(ACIM)は、メモリアレイに直接乗算累積(MAC)演算を実行することでこの問題に対処し、データ移動を大幅に削減する。
しかし、堅牢なACIMアクセラレータの設計には、デバイスレベルおよび回路レベルの非理想性の正確なモデリングが必要である。
本研究では,1) トランスフォーマを含むより多くのニューラルネットワークをサポート可能な,TensorRTのポストトレーニング量子化フローとのシームレスな統合,(2) 事前キャラクタ化統計モデルに基づくフレキシブルノイズインジェクション手法,SPICEシミュレーションやシリコン測定からのデータを簡単に組み込むこと,(3) 新たな非揮発性容量記憶を含むデバイスサポートの拡大,(4) 最適化された挙動シミュレーションにより,NuroSim V1.4よりも最大6.5倍高速な実行を実現する。
これらの機能を組み合わせることで、正確性とハードウェア効率のメトリクスの両方にわたって、システマティックな設計空間の探索が可能になる。
複数のケーススタディを通じて,ネットワークの精度を維持しながら重要な設計パラメータの最適化を実証する。
高忠実度ノイズモデリングを効率的なシミュレーションでブリッジすることで、NeuroSim V1.5は次世代ACIMアクセラレータの設計と検証を進める。
NeuroSimのすべてのバージョンはhttps://github.com/neurosim/NeuroSimでオープンソース公開されている。
関連論文リスト
- The Eclipsing Binaries via Artificial Intelligence. II. Need for Speed in PHOEBE Forward Models [0.0]
現代の天文学では、収集されたデータの量は手動分析の能力を大きく上回っている。
AIは、フォワードモデルを生成するのに必要な時間から計算ボトルネックが発生するシミュレーションコードを最適化することができる。
我々は、100万以上の合成光曲線のデータセットに基づいてトレーニングされた、完全に接続されたフィードフォワード人工ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2024-12-16T15:00:15Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - A Remedy to Compute-in-Memory with Dynamic Random Access Memory: 1FeFET-1C Technology for Neuro-Symbolic AI [14.486320458474536]
ニューロシンボリック人工知能(AI)は、ノイズや一般化されたパターンから学習し、論理的推論を行い、解釈可能な推論を提供する。
現在のハードウェアは、'neuro'と'symbolic'コンポーネント間の動的リソース割り当てを必要とするアプリケーションに対応するのに苦労している。
ニューロシンボリックAIの基本処理要素として強誘電体電荷領域計算メモリ(CiM)アレイを提案する。
論文 参考訳(メタデータ) (2024-10-20T05:52:03Z) - A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたソフトウェアスパイクニューラルネットワークシミュレータである。
得られた結果が,ソフトウェアでトレーニングされたスパイクニューラルネットワークの動作を,かつてハードウェアにデプロイされた場合の信頼性の高い推定方法を示す。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - CIMulator: A Comprehensive Simulation Platform for Computing-In-Memory
Circuit Macros with Low Bit-Width and Real Memory Materials [0.5325753548715747]
本稿では,ニューロモルフィック加速器における各種シナプスデバイスの有効性を定量化するためのシミュレーションプラットフォーム,CIMulatorを提案する。
抵抗性ランダムアクセスメモリ、強誘電体電界効果トランジスタ、揮発性静的ランダムアクセスメモリ装置などの不揮発性メモリ装置をシナプスデバイスとして選択することができる。
LeNet-5、VGG-16、C4W-1と呼ばれるカスタムCNNのような多層パーセプトロンと畳み込みニューラルネットワーク(CNN)をシミュレートし、これらのシナプスデバイスがトレーニングおよび推論結果に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-26T12:36:07Z) - Ultra-Low-Power FDSOI Neural Circuits for Extreme-Edge Neuromorphic
Intelligence [2.6199663901387997]
インメモリコンピューティング 混合信号ニューロモルフィックアーキテクチャはエッジコンピューティングのセンサ処理への応用に期待できる超低消費電力のソリューションを提供する。
本稿では、FDSOI(Fully-Depleted Silicon on Insulator)統合プロセスの特徴を利用する混合信号アナログ/デジタル回路を提案する。
論文 参考訳(メタデータ) (2020-06-25T09:31:29Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training [4.555081317066413]
NeuroSimは、ディープニューラルネットワークのための計算メモリ(CIM)アクセラレータをベンチマークするための統合フレームワークである。
pythonラッパーはNeuroSimと一般的な機械学習プラットフォームであるPytorchとをインターフェースするために開発されている。
論文 参考訳(メタデータ) (2020-03-13T20:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。