論文の概要: An associative memory model with very high memory rate: Image storage by
sequential addition learning
- arxiv url: http://arxiv.org/abs/2210.03893v1
- Date: Sat, 8 Oct 2022 02:56:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:52:28.462330
- Title: An associative memory model with very high memory rate: Image storage by
sequential addition learning
- Title(参考訳): 非常に高いメモリレートを持つ連想記憶モデル:逐次加算学習による画像記憶
- Authors: Hiroshi Inazawa
- Abstract要約: 本システムは、キューボール内の1つのキューニューロンとリコールネット内のニューロンとの双方向学習を実現する。
多くのパターンを記憶し、これらのパターンや、いつでも似たパターンを思い出すことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present a neural network system related to about memory and
recall that consists of one neuron group (the "cue ball") and a one-layer
neural net (the "recall net"). This system realizes the bidirectional
memorization learning between one cue neuron in the cue ball and the neurons in
the recall net. It can memorize many patterns and recall these patterns or
those that are similar at any time. Furthermore, the patterns are recalled at
most the same time. This model's recall situation seems to resemble human
recall of a variety of similar things almost simultaneously when one thing is
recalled. It is also possible for additional learning to occur in the system
without affecting the patterns memorized in advance. Moreover, the memory rate
(the number of memorized patterns / the total number of neurons) is close to
100%; this system's rate is 0.987. Finally, pattern data constraints become an
important aspect of this system.
- Abstract(参考訳): 本稿では,1つのニューロン群(「キューボール」)と1層ニューラルネットワーク(「リコールネット」)からなる記憶と記憶に関するニューラルネットワークシステムを提案する。
このシステムは、キューボールの1つのキューニューロンとリコールネットのニューロンとの双方向記憶学習を実現する。
多くのパターンを記憶し、そのパターンや類似したパターンをいつでも記憶することができる。
さらに、パターンをほとんど同時にリコールする。
このモデルのリコール状況は、1つのリコール時にほぼ同時に、さまざまな類似のリコールに似ています。
また、予め記憶されたパターンに影響を与えずに、システム内で追加の学習を行うこともできる。
さらに、メモリレート(記憶パターン数/ニューロン総数)は100%近く、このシステムでは0.987である。
最後に、このシステムの重要な側面はパターンデータ制約である。
関連論文リスト
- What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - A bio-inspired implementation of a sparse-learning spike-based
hippocampus memory model [0.0]
本研究では,海馬に基づくバイオインスパイアされた新しい記憶モデルを提案する。
記憶を覚えたり、キューから思い出したり、同じキューで他の人を学ぼうとする時の記憶を忘れたりできる。
この研究は、完全に機能するバイオインスパイアされたスパイクベースの海馬記憶モデルの最初のハードウェア実装を示す。
論文 参考訳(メタデータ) (2022-06-10T07:48:29Z) - BayesPCN: A Continually Learnable Predictive Coding Associative Memory [15.090562171434815]
BayesPCNは、メタ学習なしで連続的なワンショットメモリ書き込みを実行することができる階層型連想メモリである。
実験の結果、ベイズPCNは数百の「タイムステップ」を観測した高次元データをリコールできるが、リコール能力は大幅に低下する。
論文 参考訳(メタデータ) (2022-05-20T02:28:11Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Hierarchical Associative Memory [2.66512000865131]
Associative Memories や Modern Hopfield Networks は、多くの魅力的な特性を持っている。
パターン補完を行い、多数のメモリを格納し、リカレントニューラルネットワークを使用して記述することができる。
本稿では,任意の数のレイヤを持つ連想メモリの完全再帰モデルについて述べる。
論文 参考訳(メタデータ) (2021-07-14T01:38:40Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z) - Online Memorization of Random Firing Sequences by a Recurrent Neural
Network [12.944868613449218]
学習/記憶の2つのモードが考慮されている: 1つ目のモードは厳密にオンラインであり、1つのモードがデータを通過する一方、2番目のモードはデータを通る複数のパスを使用する。
どちらのモードでも、学習は厳密な局所的(準ヘビアン):任意の段階において、前段階のニューロンの発火(または発火)と現在の段階の発火(または発火)の間の重みだけを変更する。
論文 参考訳(メタデータ) (2020-01-09T11:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。