論文の概要: Mem-elements based Neuromorphic Hardware for Neural Network Application
- arxiv url: http://arxiv.org/abs/2403.03002v1
- Date: Tue, 5 Mar 2024 14:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:28:42.725025
- Title: Mem-elements based Neuromorphic Hardware for Neural Network Application
- Title(参考訳): メム要素に基づくニューロモーフィックハードウェアによるニューラルネットワーク応用
- Authors: Ankur Singh
- Abstract要約: この論文は、低消費電力の機械学習アクセラレーターにおけるmemristiveとmemcapacitiveのクロスバーアレイの利用を調査し、ディープニューラルネットワーク(DNN)のための包括的な共設計フレームワークを提供する。
このモデルは、PythonとPyTorchのハイブリッドアプローチによって実装され、8層VGGネットワーク上のメモリとメモリ容量のクロスバーアレイを備えたCIFAR-10データセットに対して、例外的なトレーニング精度90.02%と91.03%を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The thesis investigates the utilization of memristive and memcapacitive
crossbar arrays in low-power machine learning accelerators, offering a
comprehensive co-design framework for deep neural networks (DNN). The model,
implemented through a hybrid Python and PyTorch approach, accounts for various
non-idealities, achieving exceptional training accuracies of 90.02% and 91.03%
for the CIFAR-10 dataset with memristive and memcapacitive crossbar arrays on
an 8-layer VGG network. Additionally, the thesis introduces a novel approach to
emulate meminductor devices using Operational Transconductance Amplifiers (OTA)
and capacitors, showcasing adjustable behavior. Transistor-level simulations in
180 nm CMOS technology, operating at 60 MHz, demonstrate the proposed
meminductor emulator's viability with a power consumption of 0.337 mW. The
design is further validated in neuromorphic circuits and CNN accelerators,
achieving training and testing accuracies of 91.04% and 88.82%, respectively.
Notably, the exclusive use of MOS transistors ensures the feasibility of
monolithic IC fabrication. This research significantly contributes to the
exploration of advanced hardware solutions for efficient and high-performance
machine-learning applications.
- Abstract(参考訳): 論文は、低消費電力機械学習アクセラレータにおけるmemristiveおよびmemcapacitive crossbar arraysの利用を調査し、ディープニューラルネットワーク(dnn)のための包括的な共同設計フレームワークを提供する。
このモデルは、PythonとPyTorchのハイブリッドアプローチによって実装され、8層VGGネットワーク上のメモリとメモリ容量のクロスバーアレイを備えたCIFAR-10データセットに対して、例外的なトレーニング精度90.02%と91.03%を達成した。
さらに,オペレーショナルトランスコンダクタンス増幅器 (OTA) とコンデンサを用いて, 調整可能な動作を示す機構をエミュレートする手法を導入する。
60MHzで動作する180nmCMOS技術におけるトランジスタレベルのシミュレーションでは、電力消費量0.337mWのエミュレータの有効性を示す。
この設計はニューロモルフィック回路とCNNアクセラレーターでさらに検証され、それぞれ91.04%と88.82%のトレーニングとテストの精度を達成した。
特に、MOSトランジスタの排他的使用は、モノリシックIC製造の可能性を保証する。
この研究は、効率的な高性能機械学習アプリケーションのための高度なハードウェアソリューションの探索に大きく貢献する。
関連論文リスト
- Analysis of a Memcapacitor-Based for Neural Network Accelerator Framework [0.9421843976231371]
本稿では,カデンスツールを用いた新しいCMOSベースのメモリキャパシタ回路を提案する。
メムキャパシタベースのアクセラレータの設計を容易にするため,我々はPythonでこのデバイスを開発した。
本研究では,メムキャパシタを用いたニューラルネットワークシステムによる分類処理の可能性を示す。
論文 参考訳(メタデータ) (2025-01-21T18:02:30Z) - Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - A High Energy-Efficiency Multi-core Neuromorphic Architecture for Deep SNN Training [40.2426933591366]
直接SNNトレーニングを支援するマルチコアニューロモルフィックアーキテクチャを開発した。
SNN訓練におけるA100 GPUと比較して,DRAMアクセスを5585%削減した1.05TFLOPS/W@FP16 @28nmの高エネルギー効率が得られる。
論文 参考訳(メタデータ) (2024-11-26T09:41:26Z) - Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - On-Chip Learning with Memristor-Based Neural Networks: Assessing Accuracy and Efficiency Under Device Variations, Conductance Errors, and Input Noise [0.0]
本稿では,オンチップトレーニングと推論のためのメモリメモリハードウェアアクセラレータを提案する。
30メムリスタと4つのニューロンからなるハードウェアは、タングステン、クロム、炭素媒体を持つ3つの異なるM-SDC構造を用いてバイナリ画像分類タスクを実行する。
論文 参考訳(メタデータ) (2024-08-26T23:10:01Z) - Analog Spiking Neuron in CMOS 28 nm Towards Large-Scale Neuromorphic Processors [0.8426358786287627]
本研究では,TSMCの28nmCMOS技術を用いた低消費電力Leaky Integrate- and-Fireニューロンの設計を提案する。
製造されたニューロンは1.61 fJ/スパイクを消費し、34$mu m2$の活性領域を占有し、最大スパイク周波数は250mVで300kHzである。
論文 参考訳(メタデータ) (2024-08-14T17:51:20Z) - Neuromorphic Circuit Simulation with Memristors: Design and Evaluation Using MemTorch for MNIST and CIFAR [0.4077787659104315]
本研究は,3つのデジタル畳み込みニューラルネットワークを構築し,訓練することにより,メモリ内処理にmemristorsを用いることの可能性を評価する。
これらのネットワークをmemtorchシステムに変換する。
シミュレーションは理想的な条件下で行われ、推論中に最小1%の精度の損失が得られた。
論文 参考訳(メタデータ) (2024-07-18T11:30:33Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - SupeRBNN: Randomized Binary Neural Network Using Adiabatic
Superconductor Josephson Devices [44.440915387556544]
AQFPデバイスはバイナリニューラルネットワーク(BNN)計算の優れたキャリアとして機能する。
本稿では,AQFPに基づくランダム化BNNアクセラレーションフレームワークSupeRBNNを提案する。
本稿では,ReRAMベースのBNNフレームワークのエネルギー効率を約7.8×104倍に向上することを示す。
論文 参考訳(メタデータ) (2023-09-21T16:14:42Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - A 28-nm Convolutional Neuromorphic Processor Enabling Online Learning
with Spike-Based Retinas [1.4425878137951236]
適応エッジコンピューティングとビジョンアプリケーションのための28nmイベント駆動CNN(eCNN)であるSPOONを提案する。
16.8-%のパワーと11.8-%のオーバヘッドしか持たないオンライン学習を、生物学的に証明可能な直接ランダムターゲットプロジェクション(DRTP)アルゴリズムで埋め込んでいる。
0.6Vでの313nJの分類あたりのエネルギーと95.3%(オンチップトレーニング)と97.5%(オフチップトレーニング)のアキュラシーに対する0.32-mm$2$の面積で、SPOONが従来の機械学習アクセラレータの効率に達することを示した。
論文 参考訳(メタデータ) (2020-05-13T13:47:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。