論文の概要: Entropic Associative Memory for Manuscript Symbols
- arxiv url: http://arxiv.org/abs/2202.08413v1
- Date: Thu, 17 Feb 2022 02:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 03:38:00.873716
- Title: Entropic Associative Memory for Manuscript Symbols
- Title(参考訳): 写本記号のエントロピー連想記憶
- Authors: Rafael Morales and No\'e Hern\'andez and Ricardo Cruz and Victor D.
Cruz and Luis A. Pineda
- Abstract要約: マニュアルシンボルは、連想的で分散されているが宣言的でないエントロピーデジタルメモリから保存、認識、検索することができる。
完全情報と不完全情報の両方を用いてオブジェクトを検索するエントロピー連想メモリの動作特性について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manuscript symbols can be stored, recognized and retrieved from an entropic
digital memory that is associative and distributed but yet declarative; memory
retrieval is a constructive operation, memory cues to objects not contained in
the memory are rejected directly without search, and memory operations can be
performed through parallel computations. Manuscript symbols, both letters and
numerals, are represented in Associative Memory Registers that have an
associated entropy. The memory recognition operation obeys an entropy trade-off
between precision and recall, and the entropy level impacts on the quality of
the objects recovered through the memory retrieval operation. The present
proposal is contrasted in several dimensions with neural networks models of
associative memory. We discuss the operational characteristics of the entropic
associative memory for retrieving objects with both complete and incomplete
information, such as severe occlusions. The experiments reported in this paper
add evidence on the potential of this framework for developing practical
applications and computational models of natural memory.
- Abstract(参考訳): メモリ検索は構成的な操作であり、メモリに含まれないオブジェクトへのメモリキューは検索なしで直接拒否され、並列計算によってメモリ操作を行うことができる。
文字と数字の両方の写本記号は、関連するエントロピーを持つ連想記憶レジスタで表される。
メモリ認識操作は、精度とリコールの間のエントロピートレードオフに従い、エントロピーレベルは、メモリ検索操作によって回収されたオブジェクトの品質に影響を及ぼす。
本提案は,連想記憶のニューラルネットワークモデルと数次元的に対比される。
重度咬合などの完全情報と不完全情報の両方を有する物体を検索するためのエントロピー連想記憶の動作特性について検討する。
本稿で報告した実験は、自然記憶の実用的応用と計算モデルを開発するためのこの枠組みの可能性を示すものである。
関連論文リスト
- Entropic associative memory for real world images [0.7373617024876725]
EAMは,動物や車両の複雑なイメージを適切に保存し,認識し,検索する。
回収された物体は、適切な記憶、関連する記憶、想像の産物と見ることができる。
論文 参考訳(メタデータ) (2024-05-21T05:00:30Z) - Enhancing Length Extrapolation in Sequential Models with Pointer-Augmented Neural Memory [66.88278207591294]
本稿では,新しいより長いデータ列に対して,ニューラルネットワークによるシンボル処理の理解と適用を支援するために,Pointer-Augmented Neural Memory (PANM)を提案する。
PANMは、新しい物理アドレスとポインタ操作技術を使用して、人間とコンピュータのシンボル処理能力を模倣する外部のニューラルメモリを統合する。
論文 参考訳(メタデータ) (2024-04-18T03:03:46Z) - Associative Memories in the Feature Space [68.1903319310263]
本稿では,低次元のセマンティック埋め込みのみを記憶するメモリモデルを提案する。
MNISTデータセット上の単純なタスクに対して,本手法の概念実証を行う。
論文 参考訳(メタデータ) (2024-02-16T16:37:48Z) - On the Relationship Between Variational Inference and Auto-Associative
Memory [68.8204255655161]
本フレームワークでは, 変動推論に対する異なるニューラルネットワークアプローチが適用可能であるかを検討する。
得られたアルゴリズムをCIFAR10とCLEVRの画像データセットで評価し,他の連想記憶モデルと比較した。
論文 参考訳(メタデータ) (2022-10-14T14:18:47Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - An Entropic Associative Memory [0.0]
我々は、個々のオブジェクトの表現を保持する連想メモリレジスタを検索するために、内在型決定型コンピューティングを使用する。
このシステムは手書き桁の表現を保持する視覚記憶のモデル化に使われている。
メモリ操作で回収されたcueとオブジェクトの類似性は、メモリレジスタのエントロピーに依存する。
論文 参考訳(メタデータ) (2020-09-28T04:24:21Z) - Distributed Associative Memory Network with Memory Refreshing Loss [5.5792083698526405]
メモリリフレッシングロス(MRL)を用いた分散連想メモリアーキテクチャ(DAM)について紹介する。
人間の脳の動作にインスパイアされた私たちのフレームワークは、複数のメモリブロックにまたがる分散表現でデータをエンコードします。
MRLにより、記憶されたメモリコンテンツから入力データを再生することにより、MANNは、入力データとタスク目的との関連性を強化することができる。
論文 参考訳(メタデータ) (2020-07-21T07:34:33Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。