論文の概要: Multiple-Modality Associative Memory: a framework for Learning
- arxiv url: http://arxiv.org/abs/2207.04827v1
- Date: Mon, 11 Jul 2022 12:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 13:08:35.729099
- Title: Multiple-Modality Associative Memory: a framework for Learning
- Title(参考訳): マルチモダリティ連想記憶:学習のためのフレームワーク
- Authors: Rodrigo Simas, Luis Sa-Couto, and Andreas Whichert
- Abstract要約: 実世界のデータに基づいてWilshaw Network(WN)の挙動を解析する。
本稿では,複数のモダリティを同時に格納するマルチモーダルアーキテクチャを提案する。
画像とラベルの両方をモダリティとして保存することで、パターン補完、分類、生成を単一モデルで実現することに成功した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Drawing from memory the face of a friend you have not seen in years is a
difficult task. However, if you happen to cross paths, you would easily
recognize each other. The biological memory is equipped with an impressive
compression algorithm that can store the essential, and then infer the details
to match perception. Willshaw's model of Associative memory is a likely
candidate for a computational model of this brain function, but its application
on real-world data is hindered by the so-called Sparse Coding Problem. Due to a
recently proposed sparse encoding prescription [31], which maps visual patterns
into binary feature maps, we were able to analyze the behavior of the Willshaw
Network (WN) on real-world data and gain key insights into the strengths of the
model. To further enhance the capabilities of the WN, we propose the
Multiple-Modality architecture. In this new setting, the memory stores several
modalities (e.g., visual, or textual) simultaneously. After training, the model
can be used to infer missing modalities when just a subset is perceived, thus
serving as a flexible framework for learning tasks. We evaluated the model on
the MNIST dataset. By storing both the images and labels as modalities, we were
able to successfully perform pattern completion, classification, and generation
with a single model.
- Abstract(参考訳): 記憶から何年にもわたって見たことのない友人の顔を描くのは難しい仕事です。
しかし、もしパスを越えた場合、容易にお互いを認識することができます。
生体記憶には、本質を記憶し、その詳細を推測して知覚と一致させることができる印象的な圧縮アルゴリズムが備わっている。
ウィルショーの連想記憶のモデルは、この脳機能の計算モデルの候補であるが、現実のデータへの応用はスパース符号化問題(英語版)によって妨げられている。
視覚パターンをバイナリ特徴マップにマップする[31]というスパース符号化処方法が最近提案されているため,実世界のデータに対するwillshaw network(wn)の振る舞いを分析し,モデルの強みに対する重要な洞察を得ることができた。
WNの機能をさらに強化するため,マルチモーダルアーキテクチャを提案する。
この新しい設定では、メモリは複数のモダリティ(例えば、ビジュアルまたはテキスト)を同時に格納する。
トレーニング後、モデルは、サブセットが知覚されたときに欠落したモダリティを推測するために使用され、タスクを学習するための柔軟なフレームワークとして機能する。
このモデルをMNISTデータセット上で評価した。
画像とラベルの両方をモダリティとして保存することで、パターン補完、分類、生成を単一モデルで実現することに成功した。
関連論文リスト
- Hierarchical Working Memory and a New Magic Number [1.024113475677323]
本稿では,作業記憶のシナプス理論の枠組み内でチャンキングを行うための繰り返しニューラルネットワークモデルを提案する。
我々の研究は、認知に不可欠な脳内の情報のオンザフライ組織を理解するための、概念的で分析的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-08-14T16:03:47Z) - Associative Memories in the Feature Space [68.1903319310263]
本稿では,低次元のセマンティック埋め込みのみを記憶するメモリモデルを提案する。
MNISTデータセット上の単純なタスクに対して,本手法の概念実証を行う。
論文 参考訳(メタデータ) (2024-02-16T16:37:48Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - On the Relationship Between Variational Inference and Auto-Associative
Memory [68.8204255655161]
本フレームワークでは, 変動推論に対する異なるニューラルネットワークアプローチが適用可能であるかを検討する。
得られたアルゴリズムをCIFAR10とCLEVRの画像データセットで評価し,他の連想記憶モデルと比較した。
論文 参考訳(メタデータ) (2022-10-14T14:18:47Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。