論文の概要: A model of semantic completion in generative episodic memory
- arxiv url: http://arxiv.org/abs/2111.13537v1
- Date: Fri, 26 Nov 2021 15:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 20:26:30.063673
- Title: A model of semantic completion in generative episodic memory
- Title(参考訳): 生成エピソード記憶における意味的補完のモデル
- Authors: Zahra Fayyaz, Aya Altamimi, Sen Cheng, Laurenz Wiskott
- Abstract要約: 本稿では,生成エピソード記憶のための計算モデルを提案する。
このモデルは、意味論的に妥当な方法で、メモリトレースの欠落部分を完成させることができる。
また、エピソードメモリ実験をモデル化し、意味論的コングロレントコンテキストが常に非コングロレントメモリ実験よりもよくリコールされることを再現する。
- 参考スコア(独自算出の注目度): 0.6690874707758508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many different studies have suggested that episodic memory is a generative
process, but most computational models adopt a storage view. In this work, we
propose a computational model for generative episodic memory. It is based on
the central hypothesis that the hippocampus stores and retrieves selected
aspects of an episode as a memory trace, which is necessarily incomplete. At
recall, the neocortex reasonably fills in the missing information based on
general semantic information in a process we call semantic completion.
As episodes we use images of digits (MNIST) augmented by different
backgrounds representing context. Our model is based on a VQ-VAE which
generates a compressed latent representation in form of an index matrix, which
still has some spatial resolution. We assume that attention selects some part
of the index matrix while others are discarded, this then represents the gist
of the episode and is stored as a memory trace. At recall the missing parts are
filled in by a PixelCNN, modeling semantic completion, and the completed index
matrix is then decoded into a full image by the VQ-VAE.
The model is able to complete missing parts of a memory trace in a
semantically plausible way up to the point where it can generate plausible
images from scratch. Due to the combinatorics in the index matrix, the model
generalizes well to images not trained on. Compression as well as semantic
completion contribute to a strong reduction in memory requirements and
robustness to noise. Finally we also model an episodic memory experiment and
can reproduce that semantically congruent contexts are always recalled better
than incongruent ones, high attention levels improve memory accuracy in both
cases, and contexts that are not remembered correctly are more often remembered
semantically congruently than completely wrong.
- Abstract(参考訳): 多くの異なる研究がエピソディックメモリは生成過程であることを示唆しているが、ほとんどの計算モデルはストレージビューを採用している。
本研究では,生成エピソディックメモリのための計算モデルを提案する。
海馬はエピソードの選択された側面を記憶の痕跡として保存し、取り出すという中心的な仮説に基づいている。
リコール時に、新皮質は、私たちがセマンティックコンプリートと呼ぶプロセスにおいて、一般的なセマンティック情報に基づいて、欠落した情報を合理的に埋める。
エピソードでは、コンテキストを表す異なる背景によって強化された数字のイメージ(MNIST)を使用します。
我々のモデルはVQ-VAEに基づいており、圧縮された潜在表現をインデックス行列の形で生成し、空間分解能を保っている。
注意がインデックスマトリックスの一部を選択し、他の部分が破棄されると仮定すると、これはエピソードの要点を表し、メモリトレースとして格納される。
コール時に欠落した部分はPixelCNNで埋められ、セマンティックコンプリートがモデル化され、完了したインデックスマトリックスはVQ-VAEによってフルイメージにデコードされる。
モデルは、スクラッチから可視画像を生成するまで、意味論的にもっともらしい方法で、メモリトレースの欠落部分を完了することができる。
インデックス行列の組合せにより、モデルは訓練されていない画像にうまく一般化される。
圧縮とセマンティクス補完は、メモリ要件の強力な削減とノイズに対する堅牢性に寄与する。
最後に、エピソード記憶実験をモデル化し、意味的に一致したコンテキストが常に不一致なコンテキストよりもうまくリコールされ、高い注意レベルが両方のケースにおけるメモリ精度を向上し、正しく記憶されていないコンテキストが完全に間違っているよりも、意味的に一致したコンテキストがより多く記憶されるように再現する。
関連論文リスト
- Associative Memories in the Feature Space [68.1903319310263]
本稿では,低次元のセマンティック埋め込みのみを記憶するメモリモデルを提案する。
MNISTデータセット上の単純なタスクに対して,本手法の概念実証を行う。
論文 参考訳(メタデータ) (2024-02-16T16:37:48Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - From seeing to remembering: Images with harder-to-reconstruct
representations leave stronger memory traces [4.012995481864761]
本稿では,画像の特徴埋め込みを圧縮するためのスパース符号化モデルを提案する。
シーン画像のオープンな記憶可能性データセットにおいて、再構成誤差は記憶精度だけでなく、検索中の応答遅延も説明し、後者の場合、強力な視覚のみのモデルによって説明されるすべての分散が説明されることを示す。
論文 参考訳(メタデータ) (2023-02-21T01:40:32Z) - Memories are One-to-Many Mapping Alleviators in Talking Face Generation [31.55290250247604]
対話型顔生成は、入力音声によって駆動される対象者の写実的映像像を生成することを目的としている。
本稿では,失われた情報を暗黙記憶と明示記憶で補完するMemFaceを提案する。
実験結果から,提案したMemFaceは,複数のシナリオにまたがる最先端のすべての結果を上回っていることがわかった。
論文 参考訳(メタデータ) (2022-12-09T17:45:36Z) - Classification and Generation of real-world data with an Associative
Memory Model [0.0]
マルチモーダル・フレームワークを用いて,基本的な連想記憶モデルの能力を拡張する。
イメージとラベルの両方をモダリティとして保存することで、単一のメモリを使用してパターンを検索し、完了させることができる。
論文 参考訳(メタデータ) (2022-07-11T12:51:27Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。