論文の概要: Latent Structured Hopfield Network for Semantic Association and Retrieval
- arxiv url: http://arxiv.org/abs/2506.01303v1
- Date: Mon, 02 Jun 2025 04:24:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.273303
- Title: Latent Structured Hopfield Network for Semantic Association and Retrieval
- Title(参考訳): セマンティックアソシエーションと検索のための潜在構造ホップフィールドネットワーク
- Authors: Chong Li, Xiangyang Xue, Jianfeng Feng, Taiping Zeng,
- Abstract要約: エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
本稿では,連続ホップフィールドアトラクタダイナミクスを自動エンコーダアーキテクチャに統合するフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
我々の研究は、生物学的に基底化されたアトラクタ機構を通じて、セマンティック要素をエピソードメモリトレースに動的にバインドする方法の計算的視点を提供する。
- 参考スコア(独自算出の注目度): 52.634915010996835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Episodic memory enables humans to recall past experiences by associating semantic elements such as objects, locations, and time into coherent event representations. While large pretrained models have shown remarkable progress in modeling semantic memory, the mechanisms for forming associative structures that support episodic memory remain underexplored. Inspired by hippocampal CA3 dynamics and its role in associative memory, we propose the Latent Structured Hopfield Network (LSHN), a biologically inspired framework that integrates continuous Hopfield attractor dynamics into an autoencoder architecture. LSHN mimics the cortical-hippocampal pathway: a semantic encoder extracts compact latent representations, a latent Hopfield network performs associative refinement through attractor convergence, and a decoder reconstructs perceptual input. Unlike traditional Hopfield networks, our model is trained end-to-end with gradient descent, achieving scalable and robust memory retrieval. Experiments on MNIST, CIFAR-10, and a simulated episodic memory task demonstrate superior performance in recalling corrupted inputs under occlusion and noise, outperforming existing associative memory models. Our work provides a computational perspective on how semantic elements can be dynamically bound into episodic memory traces through biologically grounded attractor mechanisms.
- Abstract(参考訳): エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
大規模な事前学習モデルではセマンティックメモリのモデリングにおいて顕著な進歩が見られるが、エピソード記憶を支える連想構造の形成機構は未解明のままである。
海馬CA3動態と連想記憶におけるその役割に着想を得て,連続ホップフィールドアトラクションをオートエンコーダアーキテクチャに統合する生物学的にインスパイアされたフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
セマンティックエンコーダはコンパクトな潜伏表現を抽出し、潜伏ホップフィールドネットワークはアトラクタ収束によって連想的洗練を行い、デコーダは知覚入力を再構成する。
従来のホップフィールドネットワークとは異なり、我々のモデルは勾配勾配でエンドツーエンドに訓練され、スケーラブルで堅牢なメモリ検索を実現する。
MNIST、CIFAR-10、シミュレートされたエピソードメモリタスクの実験は、隠蔽とノイズ下での劣化した入力をリコールする際の優れた性能を示し、既存の連想メモリモデルよりも優れていた。
我々の研究は、生物学的に基底化されたアトラクタ機構を通じて、セマンティック要素をエピソードメモリトレースに動的にバインドする方法の計算的視点を提供する。
関連論文リスト
- Input-Driven Dynamics for Robust Memory Retrieval in Hopfield Networks [3.961279440272764]
ホップフィールドモデルは、人間の脳における記憶の保存と検索のメカニズムを理解するために、数学的に理想化されたが洞察に富んだフレームワークを提供する。
本稿では,外部入力がニューラルシナプスに直接影響を与え,ホップフィールドモデルのエネルギー景観を形作る新しいシステムフレームワークを提案する。
この塑性に基づく機構は、メモリ検索プロセスの明確なエネルギー的解釈を提供し、高度に混合された入力を正しく分類するのに有効である。
論文 参考訳(メタデータ) (2024-11-06T17:24:25Z) - Modern Hopfield Networks meet Encoded Neural Representations -- Addressing Practical Considerations [5.272882258282611]
本稿では、符号化された表現をMHNに統合し、パターン分離性を改善し、メタ安定状態を低減するフレームワークであるHopfield HENを紹介する。
HENは、画像と自然言語クエリのヘテロ結合の文脈での検索にも利用でき、したがって、同じドメイン内の部分的コンテンツへのアクセスの制限を取り除くことができる。
論文 参考訳(メタデータ) (2024-09-24T19:17:15Z) - In search of dispersed memories: Generative diffusion models are
associative memory networks [6.4322891559626125]
生成拡散モデル(Generative diffusion model)は、多くのタスクにおいて優れたパフォーマンスを示す生成機械学習技術の一種である。
生成拡散モデルはエネルギーベースモデルと解釈でき、離散パターンで訓練すると、それらのエネルギー関数は現在のホップフィールドネットワークと同一であることを示す。
この等価性により、深層ニューラルネットワークの重み構造における現代のホップフィールドネットワークの連想力学を符号化するシナプス学習プロセスとして拡散モデルの教師付きトレーニングを解釈することができる。
論文 参考訳(メタデータ) (2023-09-29T14:48:24Z) - On the Relationship Between Variational Inference and Auto-Associative
Memory [68.8204255655161]
本フレームワークでは, 変動推論に対する異なるニューラルネットワークアプローチが適用可能であるかを検討する。
得られたアルゴリズムをCIFAR10とCLEVRの画像データセットで評価し,他の連想記憶モデルと比較した。
論文 参考訳(メタデータ) (2022-10-14T14:18:47Z) - Brain-like combination of feedforward and recurrent network components
achieves prototype extraction and robust pattern recognition [0.0]
連想記憶は、大々的に繰り返される新皮質ネットワークによって実行される計算の有力候補である。
我々は,非教師付きヘビアン・ベイズ学習規則を用いて分散表現を学習するフィードフォワードネットワークに,繰り返しアトラクタネットワークを結合する。
本研究では, フィードフォワード駆動型内部(隠れた)表現のトレーニングにおいて, 繰り返しアトラクタコンポーネントが連想メモリを実装していることを示す。
論文 参考訳(メタデータ) (2022-06-30T06:03:11Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。