論文の概要: Synaptic metaplasticity with multi-level memristive devices
- arxiv url: http://arxiv.org/abs/2306.12142v1
- Date: Wed, 21 Jun 2023 09:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 13:58:24.148763
- Title: Synaptic metaplasticity with multi-level memristive devices
- Title(参考訳): 多層膜デバイスを用いたシナプス形成
- Authors: Simone D'Agostino, Filippo Moro, Tifenn Hirtzlin, Julien Arcamone,
Niccol\`o Castellani, Damien Querlioz, Melika Payvand and Elisa Vianello
- Abstract要約: 推論とトレーニングの両方において,メタ塑性を実現するためのメムリスタベースのハードウェアソリューションを提案する。
MNISTとFashion-MNISTの連続トレーニングにおいて,2層パーセプトロンの精度は97%,86%であった。
我々のアーキテクチャは、mmristorの制限された耐久性と互換性があり、メモリは15倍削減されている。
- 参考スコア(独自算出の注目度): 1.5598974049838272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has made remarkable progress in various tasks, surpassing human
performance in some cases. However, one drawback of neural networks is
catastrophic forgetting, where a network trained on one task forgets the
solution when learning a new one. To address this issue, recent works have
proposed solutions based on Binarized Neural Networks (BNNs) incorporating
metaplasticity. In this work, we extend this solution to quantized neural
networks (QNNs) and present a memristor-based hardware solution for
implementing metaplasticity during both inference and training. We propose a
hardware architecture that integrates quantized weights in memristor devices
programmed in an analog multi-level fashion with a digital processing unit for
high-precision metaplastic storage. We validated our approach using a combined
software framework and memristor based crossbar array for in-memory computing
fabricated in 130 nm CMOS technology. Our experimental results show that a
two-layer perceptron achieves 97% and 86% accuracy on consecutive training of
MNIST and Fashion-MNIST, equal to software baseline. This result demonstrates
immunity to catastrophic forgetting and the resilience to analog device
imperfections of the proposed solution. Moreover, our architecture is
compatible with the memristor limited endurance and has a 15x reduction in
memory
- Abstract(参考訳): ディープラーニングは様々なタスクで著しく進歩し、場合によっては人間のパフォーマンスを上回っている。
しかし、ニューラルネットワークの欠点のひとつは、あるタスクでトレーニングされたネットワークが、新しいタスクを学ぶ際に解決策を忘れてしまう、破滅的な忘れることだ。
この問題に対処するため、近年の研究では、メタ可塑性を取り入れたBNN(Binarized Neural Networks)に基づくソリューションが提案されている。
本研究では,この解を量子化ニューラルネットワーク(QNN)に拡張し,推論とトレーニングの間にメタ塑性を実装するためのメムリスタベースのハードウェアソリューションを提案する。
本研究では,デジタル処理ユニットを用いて,アナログマルチレベルにプログラムされた memristor デバイスに量子化重みを組み込むハードウェアアーキテクチャを提案する。
130nmCMOS技術を用いたインメモリコンピューティングにおいて,ソフトウェアフレームワークとmemristorベースのクロスバーアレイを組み合わせたアプローチを検証した。
実験の結果,MNISTとFashion-MNISTの連続トレーニングにおいて,2層パーセプトロンが97%,86%の精度でソフトウェアベースラインに等しいことがわかった。
この結果は, 破壊的放棄に対する免疫と, 提案溶液のアナログデバイス不完全に対する回復性を示す。
さらに、我々のアーキテクチャはmmristorの制限耐性と互換性があり、メモリは15倍削減されている。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Quantization of Deep Neural Networks to facilitate self-correction of
weights on Phase Change Memory-based analog hardware [0.0]
乗法重みの集合を近似するアルゴリズムを開発する。
これらの重みは、性能の損失を最小限に抑えながら、元のネットワークの重みを表現することを目的としている。
その結果、オンチップパルス発生器と組み合わせると、私たちの自己補正ニューラルネットワークはアナログ認識アルゴリズムで訓練されたものと同等に機能することがわかった。
論文 参考訳(メタデータ) (2023-09-30T10:47:25Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses [1.9809266426888898]
専用のニューロモルフィックハードウェア上でのスパイクニューラルネットワーク(RNN)のトレーニングは、依然としてオープンな課題である。
本稿では,PCMデバイスモデルに基づく差分構造アレイのシミュレーションフレームワークを提案する。
我々は,最近提案されたe-prop学習規則を用いて,提案したシミュレーションフレームワークに重みをエミュレートしたスパイクRNNを訓練する。
論文 参考訳(メタデータ) (2021-08-04T01:24:17Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Enabling Incremental Training with Forward Pass for Edge Devices [0.0]
進化戦略(ES)を用いてネットワークを部分的に再トレーニングし,エラー発生後に変更に適応し,回復できるようにする手法を提案する。
この技術は、バックプロパゲーションを必要とせず、最小限のリソースオーバーヘッドで推論専用ハードウェアのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-03-25T17:43:04Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Benchmarking Deep Spiking Neural Networks on Neuromorphic Hardware [0.0]
我々は、トレーニング済みの非スパイクをスパイクニューラルネットワークに変換する手法を用いて、性能損失を評価し、インジェクション当たりのエネルギを測定する。
変換損失は、通常、デジタル実装では1%以下であり、アナログシステムでは、より少ないエネルギー/推論コストの利点により、適度に高いことが示される。
論文 参考訳(メタデータ) (2020-04-03T16:25:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。