論文の概要: Mem-elements based Neuromorphic Hardware for Neural Network Application
- arxiv url: http://arxiv.org/abs/2403.03002v1
- Date: Tue, 5 Mar 2024 14:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:28:42.725025
- Title: Mem-elements based Neuromorphic Hardware for Neural Network Application
- Title(参考訳): メム要素に基づくニューロモーフィックハードウェアによるニューラルネットワーク応用
- Authors: Ankur Singh
- Abstract要約: この論文は、低消費電力の機械学習アクセラレーターにおけるmemristiveとmemcapacitiveのクロスバーアレイの利用を調査し、ディープニューラルネットワーク(DNN)のための包括的な共設計フレームワークを提供する。
このモデルは、PythonとPyTorchのハイブリッドアプローチによって実装され、8層VGGネットワーク上のメモリとメモリ容量のクロスバーアレイを備えたCIFAR-10データセットに対して、例外的なトレーニング精度90.02%と91.03%を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The thesis investigates the utilization of memristive and memcapacitive
crossbar arrays in low-power machine learning accelerators, offering a
comprehensive co-design framework for deep neural networks (DNN). The model,
implemented through a hybrid Python and PyTorch approach, accounts for various
non-idealities, achieving exceptional training accuracies of 90.02% and 91.03%
for the CIFAR-10 dataset with memristive and memcapacitive crossbar arrays on
an 8-layer VGG network. Additionally, the thesis introduces a novel approach to
emulate meminductor devices using Operational Transconductance Amplifiers (OTA)
and capacitors, showcasing adjustable behavior. Transistor-level simulations in
180 nm CMOS technology, operating at 60 MHz, demonstrate the proposed
meminductor emulator's viability with a power consumption of 0.337 mW. The
design is further validated in neuromorphic circuits and CNN accelerators,
achieving training and testing accuracies of 91.04% and 88.82%, respectively.
Notably, the exclusive use of MOS transistors ensures the feasibility of
monolithic IC fabrication. This research significantly contributes to the
exploration of advanced hardware solutions for efficient and high-performance
machine-learning applications.
- Abstract(参考訳): 論文は、低消費電力機械学習アクセラレータにおけるmemristiveおよびmemcapacitive crossbar arraysの利用を調査し、ディープニューラルネットワーク(dnn)のための包括的な共同設計フレームワークを提供する。
このモデルは、PythonとPyTorchのハイブリッドアプローチによって実装され、8層VGGネットワーク上のメモリとメモリ容量のクロスバーアレイを備えたCIFAR-10データセットに対して、例外的なトレーニング精度90.02%と91.03%を達成した。
さらに,オペレーショナルトランスコンダクタンス増幅器 (OTA) とコンデンサを用いて, 調整可能な動作を示す機構をエミュレートする手法を導入する。
60MHzで動作する180nmCMOS技術におけるトランジスタレベルのシミュレーションでは、電力消費量0.337mWのエミュレータの有効性を示す。
この設計はニューロモルフィック回路とCNNアクセラレーターでさらに検証され、それぞれ91.04%と88.82%のトレーニングとテストの精度を達成した。
特に、MOSトランジスタの排他的使用は、モノリシックIC製造の可能性を保証する。
この研究は、効率的な高性能機械学習アプリケーションのための高度なハードウェアソリューションの探索に大きく貢献する。
関連論文リスト
- Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - On-Chip Learning with Memristor-Based Neural Networks: Assessing Accuracy and Efficiency Under Device Variations, Conductance Errors, and Input Noise [0.0]
本稿では,オンチップトレーニングと推論のためのメモリメモリハードウェアアクセラレータを提案する。
30メムリスタと4つのニューロンからなるハードウェアは、タングステン、クロム、炭素媒体を持つ3つの異なるM-SDC構造を用いてバイナリ画像分類タスクを実行する。
論文 参考訳(メタデータ) (2024-08-26T23:10:01Z) - Analog Spiking Neuron in CMOS 28 nm Towards Large-Scale Neuromorphic Processors [0.8426358786287627]
本研究では,TSMCの28nmCMOS技術を用いた低消費電力Leaky Integrate- and-Fireニューロンの設計を提案する。
製造されたニューロンは1.61 fJ/スパイクを消費し、34$mu m2$の活性領域を占有し、最大スパイク周波数は250mVで300kHzである。
論文 参考訳(メタデータ) (2024-08-14T17:51:20Z) - Few-Shot Transfer Learning for Individualized Braking Intent Detection on Neuromorphic Hardware [0.21847754147782888]
本研究では、BrainChip上の畳み込みスパイクニューラルネットワーク(CSNN)をトレーニングし、実装するために、数発の転送学習手法の使用について検討する。
その結果、ニューロモルフィックハードウェアのエネルギー効率は97%以上低下し、レイテンシは1.3*しか増加しなかった。
論文 参考訳(メタデータ) (2024-07-21T15:35:46Z) - Neuromorphic Circuit Simulation with Memristors: Design and Evaluation Using MemTorch for MNIST and CIFAR [0.4077787659104315]
本研究は,3つのデジタル畳み込みニューラルネットワークを構築し,訓練することにより,メモリ内処理にmemristorsを用いることの可能性を評価する。
これらのネットワークをmemtorchシステムに変換する。
シミュレーションは理想的な条件下で行われ、推論中に最小1%の精度の損失が得られた。
論文 参考訳(メタデータ) (2024-07-18T11:30:33Z) - Stochastic Spiking Attention: Accelerating Attention with Stochastic
Computing in Spiking Networks [33.51445486269896]
スパイキングニューラルネットワーク(SNN)は、計算要求の削減と電力効率の向上のため、最近Transformerアーキテクチャに統合されている。
我々は,SNNベースのトランスフォーマーのドット積アテンションを効果的に実行するために,計算(SC)を活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T11:47:19Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - SupeRBNN: Randomized Binary Neural Network Using Adiabatic
Superconductor Josephson Devices [44.440915387556544]
AQFPデバイスはバイナリニューラルネットワーク(BNN)計算の優れたキャリアとして機能する。
本稿では,AQFPに基づくランダム化BNNアクセラレーションフレームワークSupeRBNNを提案する。
本稿では,ReRAMベースのBNNフレームワークのエネルギー効率を約7.8×104倍に向上することを示す。
論文 参考訳(メタデータ) (2023-09-21T16:14:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - A 28-nm Convolutional Neuromorphic Processor Enabling Online Learning
with Spike-Based Retinas [1.4425878137951236]
適応エッジコンピューティングとビジョンアプリケーションのための28nmイベント駆動CNN(eCNN)であるSPOONを提案する。
16.8-%のパワーと11.8-%のオーバヘッドしか持たないオンライン学習を、生物学的に証明可能な直接ランダムターゲットプロジェクション(DRTP)アルゴリズムで埋め込んでいる。
0.6Vでの313nJの分類あたりのエネルギーと95.3%(オンチップトレーニング)と97.5%(オフチップトレーニング)のアキュラシーに対する0.32-mm$2$の面積で、SPOONが従来の機械学習アクセラレータの効率に達することを示した。
論文 参考訳(メタデータ) (2020-05-13T13:47:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。