論文の概要: Metaplasticity in Multistate Memristor Synaptic Networks
- arxiv url: http://arxiv.org/abs/2003.11638v1
- Date: Wed, 26 Feb 2020 04:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:33:55.929504
- Title: Metaplasticity in Multistate Memristor Synaptic Networks
- Title(参考訳): マルチステート膜シンプティックネットワークにおけるメタ塑性
- Authors: Fatima Tuz Zohora, Abdullah M. Zyarah, Nicholas Soures and Dhireesha
Kudithipudi
- Abstract要約: 近年の研究では、メタ可塑性シナプスは単純なバイナリシナプスよりも長い情報を保持することが示されている。
本稿では,多状態メタプラスチックのシナプス特性について,情報保持と受信の両面から検討する。
- 参考スコア(独自算出の注目度): 4.167459103689587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that metaplastic synapses can retain information
longer than simple binary synapses and are beneficial for continual learning.
In this paper, we explore the multistate metaplastic synapse characteristics in
the context of high retention and reception of information. Inherent behavior
of a memristor emulating the multistate synapse is employed to capture the
metaplastic behavior. An integrated neural network study for learning and
memory retention is performed by integrating the synapse in a $5\times3$
crossbar at the circuit level and $128\times128$ network at the architectural
level. An on-device training circuitry ensures the dynamic learning in the
network. In the $128\times128$ network, it is observed that the number of input
patterns the multistate synapse can classify is $\simeq$ 2.1x that of a simple
binary synapse model, at a mean accuracy of $\geq$ 75% .
- Abstract(参考訳): 近年の研究では、メタプラスチックシナプスは単純なバイナリシナプスよりも長い情報を保持し、継続的な学習に有効であることが示されている。
本稿では,高保留と情報受信の文脈において多状態メタ可塑性シナプス特性について検討する。
多状態シナプスを模擬したメムリスタの遺伝挙動を用いて, メタ塑性挙動を捉える。
学習および記憶保持のための統合ニューラルネットワーク研究は、回路レベルの5\times3$クロスバーとアーキテクチャレベルで128\times128$ネットワークとにシナプスを統合することによって行われる。
オンデバイストレーニング回路は、ネットワーク内の動的学習を保証する。
128\times 128$ネットワークでは、マルチステートシナプスが分類できる入力パターンの数は、単純なバイナリシナプスモデルの$\simeq$ 2.1xであり、平均で$\geq$ 75%である。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Emulating Complex Synapses Using Interlinked Proton Conductors [17.304569471460013]
我々はベンナ・フジ人工複合シナプスを実験的に実現した。
結合ストレージコンポーネントからのメモリ集積は数値シミュレーションと実験観測の両方によって明らかにされる。
複雑なシナプスの実験的実現は、記憶能力を高め、継続的な学習を可能にするための有望なアプローチを示唆している。
論文 参考訳(メタデータ) (2024-01-26T18:16:06Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - A Fully Memristive Spiking Neural Network with Unsupervised Learning [2.8971214387667494]
このシステムは、神経系とシナプス系の両方のダイナミクスが、メムリスタを用いて実現可能であることを完全に理解している。
提案したMSNNは, 共振器間の電圧波形変化から, 共振器の累積重変化を用いてSTDP学習を実装した。
論文 参考訳(メタデータ) (2022-03-02T21:16:46Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Hierarchical Associative Memory [2.66512000865131]
Associative Memories や Modern Hopfield Networks は、多くの魅力的な特性を持っている。
パターン補完を行い、多数のメモリを格納し、リカレントニューラルネットワークを使用して記述することができる。
本稿では,任意の数のレイヤを持つ連想メモリの完全再帰モデルについて述べる。
論文 参考訳(メタデータ) (2021-07-14T01:38:40Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Binary autoencoder with random binary weights [0.0]
層間情報を保存するために,隠蔽層の疎活性化が自然に起こることが示されている。
十分に大きな隠蔽層があれば、ニューロンのしきい値を変えるだけで任意の入力に対する再構成誤差をゼロにすることができる。
このモデルはフルーツフライの嗅覚システムに似ており、提示された理論的結果はより複雑なニューラルネットワークを理解する上で有用な洞察を与える。
論文 参考訳(メタデータ) (2020-04-30T12:13:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。