論文の概要: Exponential Dynamic Energy Network for High Capacity Sequence Memory
- arxiv url: http://arxiv.org/abs/2510.24965v1
- Date: Tue, 28 Oct 2025 20:53:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.788104
- Title: Exponential Dynamic Energy Network for High Capacity Sequence Memory
- Title(参考訳): 高容量シーケンスメモリのための指数動的エネルギーネットワーク
- Authors: Arjun Karuvally, Pichsinee Lertsaroj, Terrence J. Sejnowski, Hava T. Siegelmann,
- Abstract要約: 本稿では,エネルギーパラダイムを時間領域に拡張する新しいアーキテクチャであるExponential Dynamic Energy Network (EDEN)を紹介する。
EDENは、人工システムと生物学的システムの両方において、高容量の時間記憶のためのスケーラブルで解釈可能なモデルを提供する。
- 参考スコア(独自算出の注目度): 11.724565818034948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The energy paradigm, exemplified by Hopfield networks, offers a principled framework for memory in neural systems by interpreting dynamics as descent on an energy surface. While powerful for static associative memories, it falls short in modeling sequential memory, where transitions between memories are essential. We introduce the Exponential Dynamic Energy Network (EDEN), a novel architecture that extends the energy paradigm to temporal domains by evolving the energy function over multiple timescales. EDEN combines a static high-capacity energy network with a slow, asymmetrically interacting modulatory population, enabling robust and controlled memory transitions. We formally derive short-timescale energy functions that govern local dynamics and use them to analytically compute memory escape times, revealing a phase transition between static and dynamic regimes. The analysis of capacity, defined as the number of memories that can be stored with minimal error rate as a function of the dimensions of the state space (number of feature neurons), for EDEN shows that it achieves exponential sequence memory capacity $O(\gamma^N)$, outperforming the linear capacity $O(N)$ of conventional models. Furthermore, EDEN's dynamics resemble the activity of time and ramping cells observed in the human brain during episodic memory tasks, grounding its biological relevance. By unifying static and sequential memory within a dynamic energy framework, EDEN offers a scalable and interpretable model for high-capacity temporal memory in both artificial and biological systems.
- Abstract(参考訳): ホプフィールドネットワークによって実証されたエネルギーパラダイムは、エネルギー表面上の降下としてダイナミクスを解釈することで、ニューラルネットワークにおけるメモリの原理的な枠組みを提供する。
静的連想記憶には強力だが、メモリ間の遷移が不可欠であるシーケンシャルメモリのモデリングでは不十分である。
複数の時間スケールでエネルギー関数を進化させることにより、エネルギーパラダイムを時間領域に拡張する新しいアーキテクチャであるExponential Dynamic Energy Network (EDEN)を導入する。
EDENは静的な高容量エネルギーネットワークと低速で非対称に相互作用する変調集団を結合し、堅牢で制御されたメモリ遷移を可能にする。
我々は、局所力学を制御し、それらを解析的にメモリエスケープ時間を計算し、静的な状態と動的状態の間の相転移を明らかにするための、短時間のエネルギー関数を正式に導出する。
EDEN の状態空間(特徴ニューロンの数)の次元の関数として最小エラー率で保存できるメモリ数として定義されるキャパシティの解析は、指数列メモリ容量 $O(\gamma^N)$ を達成し、従来のモデルの線形キャパシティ $O(N)$ を上回っていることを示している。
さらに、EDENのダイナミクスは、ヒトの脳で観察される時間と傾斜する細胞の活動に似ており、その生物学的な関連性に基づいている。
動的エネルギーフレームワーク内で静的メモリとシーケンシャルメモリを統一することにより、EDENは、人工システムと生物学的システムの両方において、高容量の時間記憶のためのスケーラブルで解釈可能なモデルを提供する。
関連論文リスト
- MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Latent Structured Hopfield Network for Semantic Association and Retrieval [52.634915010996835]
エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
本稿では,連続ホップフィールドアトラクタダイナミクスを自動エンコーダアーキテクチャに統合するフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
従来のホップフィールドネットワークとは異なり、我々のモデルは勾配勾配でエンドツーエンドに訓練され、スケーラブルで堅牢なメモリ検索を実現する。
論文 参考訳(メタデータ) (2025-06-02T04:24:36Z) - Modern Hopfield Networks with Continuous-Time Memories [19.616624959353697]
本稿では,大規模な離散ホップフィールドメモリを小さな連続記憶に圧縮する手法を提案する。
作業記憶における連続的資源割り当ての心理学的理論に着想を得て,大規模な離散ホップフィールド記憶を小さな連続記憶に圧縮する手法を提案する。
論文 参考訳(メタデータ) (2025-02-14T12:41:05Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Energy-based General Sequential Episodic Memory Networks at the
Adiabatic Limit [3.5450828190071655]
GSEMM(General Sequential Episodic Memory Models)を新たに導入する。
動的エネルギー面は、ネットワークの隠された層に信号の伝搬遅延を伴う新しい非対称なシナプスによって実現される。
DSEMは、ネットワーク内のニューロン数とともに指数関数的に増大する記憶容量を有することを示す。
論文 参考訳(メタデータ) (2022-12-11T18:09:34Z) - Slow manifolds in recurrent networks encode working memory efficiently
and robustly [0.0]
ワーキングメモリ(working memory)は、潜在情報の保存と操作を短時間で行う認知機能である。
作業メモリのネットワークレベルメカニズムを調べるために,トップダウンモデリング手法を用いる。
論文 参考訳(メタデータ) (2021-01-08T18:47:02Z) - Enhancing associative memory recall and storage capacity using confocal
cavity QED [15.696215759892052]
本稿では,連想記憶を実現するための短期的な実験プラットフォームを提案する。
複数モードの光学キャビティに結合されたスピンフルボソンを使用することで、多くの記憶を同時に保存することができる。
この非平衡量子光学スキームはグラウバー力学よりも連想記憶に有利であることを示す。
論文 参考訳(メタデータ) (2020-09-02T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。