論文の概要: On-device Synaptic Memory Consolidation using Fowler-Nordheim
Quantum-tunneling
- arxiv url: http://arxiv.org/abs/2206.14581v1
- Date: Mon, 27 Jun 2022 19:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 21:09:56.455040
- Title: On-device Synaptic Memory Consolidation using Fowler-Nordheim
Quantum-tunneling
- Title(参考訳): Fowler-Nordheim量子チューニングを用いたオンデバイスシンプティックメモリ統合
- Authors: Mustafizur Rahman, Subhankar Bose and Shantanu Chakrabartty
- Abstract要約: 量子トンネル装置はシナプスメモリの統合を実装することができる。
FN-シナプスの操作はシナプス寿命に関してほぼ最適であることを示す。
シナプス更新毎のfemtojoulesのエネルギーフットプリントにより、提案したFNシナプスはシナプス記憶の統合と永続学習の両方を実装するための超エネルギー効率のアプローチを提供すると考えている。
- 参考スコア(独自算出の注目度): 6.338178373376445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synaptic memory consolidation has been heralded as one of the key mechanisms
for supporting continual learning in neuromorphic Artificial Intelligence (AI)
systems. Here we report that a Fowler-Nordheim (FN) quantum-tunneling device
can implement synaptic memory consolidation similar to what can be achieved by
algorithmic consolidation models like the cascade and the elastic weight
consolidation (EWC) models. The proposed FN-synapse not only stores the
synaptic weight but also stores the synapse's historical usage statistic on the
device itself. We also show that the operation of the FN-synapse is
near-optimal in terms of the synaptic lifetime and we demonstrate that a
network comprising FN-synapses outperforms a comparable EWC network for a small
benchmark continual learning task. With an energy footprint of femtojoules per
synaptic update, we believe that the proposed FN-synapse provides an
ultra-energy-efficient approach for implementing both synaptic memory
consolidation and persistent learning.
- Abstract(参考訳): シナプス記憶の統合は、ニューロモルフィック人工知能(AI)システムにおける連続学習を支える重要なメカニズムの1つとして認識されている。
本稿では,Fowler-Nordheim(FN)量子トンネル装置が,カスケードや弾性重み付け(EWC)モデルのようなアルゴリズム的整合モデルで実現可能なようなシナプスメモリ整合性を実現することができることを報告する。
提案するfn-synapseはシナプスの重量を蓄積するだけでなく、シナプスの歴史的な使用統計をデバイス自体に保存する。
また,fn-synapseの動作はシナプス寿命の観点でほぼ最適であることを示し,fn-synapsesを構成するネットワークが,小さなベンチマーク連続学習タスクにおいて同等のewcネットワークを上回ることを実証する。
シナプス更新毎のフェムトジュールのエネルギーフットプリントにより,提案するfn-シナプスはシナプスメモリ統合と永続学習の両方を実装するための超エネルギー効率の高いアプローチを提供すると信じている。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Emulating Complex Synapses Using Interlinked Proton Conductors [17.304569471460013]
我々はベンナ・フジ人工複合シナプスを実験的に実現した。
結合ストレージコンポーネントからのメモリ集積は数値シミュレーションと実験観測の両方によって明らかにされる。
複雑なシナプスの実験的実現は、記憶能力を高め、継続的な学習を可能にするための有望なアプローチを示唆している。
論文 参考訳(メタデータ) (2024-01-26T18:16:06Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - Neuromorphic Hebbian learning with magnetic tunnel junction synapses [41.92764939721262]
磁気トンネル接合(MTJ)の双対抵抗状態による高精度推論を実現するニューロモルフィックネットワークの提案と実験的検討を行った。
MTJシナプスで直接実装したニューロモルフィックネットワークの最初の実演を行った。
また,STT-MTJシナプスを用いた非教師型ヘビアン学習システムにより,MNIST手書き文字認識の競争精度が向上できることをシミュレーションにより実証した。
論文 参考訳(メタデータ) (2023-08-21T19:58:44Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Hardware-Friendly Synaptic Orders and Timescales in Liquid State
Machines for Speech Classification [0.0]
Liquid State Machinesは、ランダムな貯水池接続を備えた脳にインスパイアされたスパイクニューラルネットワーク(SNN)である。
差分(単一時間ステップの高出力)、0位(有限パルス幅の矩形)、第1位(指数降下)、第2位(指数昇降)といったシナプス的順序の役割を解析する。
論文 参考訳(メタデータ) (2021-04-29T11:20:39Z) - An Adaptive Synaptic Array using Fowler-Nordheim Dynamic Analog Memory [6.681943980068049]
機械学習(ML)システムのエネルギー効率向上のためのアナログメモリを実装するために,動的状態を用いたシナプスアレイを提案する。
メモリ更新あたりのエネルギー散逸は5fJ以下で、14ビットまでのプログラム解像度を持つため、提案したシナプスアレイはトレーニングと推論フェーズ間のエネルギー効率の不均衡に対処することができる。
論文 参考訳(メタデータ) (2021-04-13T04:08:04Z) - Neural Sampling Machine with Stochastic Synapse allows Brain-like
Learning and Inference [6.138129592577736]
NNの新しいクラスであるNeural-Sampling-Machineを紹介し、シナプス接続におけるシナプス性を利用してベイズ推定を近似する。
クロスバーと金属状態の間のセレクタ要素の固有のスイッチングは、NSMのシナプス内の乗算ノイズをもたらすことを実験的に示した。
回転試料における標準画像分類タスクとデータ不確実性推定について報告する。
論文 参考訳(メタデータ) (2021-02-20T23:45:24Z) - Preparation of excited states for nuclear dynamics on a quantum computer [117.44028458220427]
量子コンピュータ上で励起状態を作成するための2つの異なる方法を研究する。
シミュレーションおよび実量子デバイス上でこれらの手法をベンチマークする。
これらの結果から,フォールトトレラントデバイスに優れたスケーリングを実現するために設計された量子技術が,接続性やゲート忠実性に制限されたデバイスに実用的なメリットをもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-28T17:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。