論文の概要: A Dynamical Theory of Sequential Retrieval in Input-Driven Hopfield Networks
- arxiv url: http://arxiv.org/abs/2603.03201v2
- Date: Thu, 05 Mar 2026 11:03:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 15:25:24.270503
- Title: A Dynamical Theory of Sequential Retrieval in Input-Driven Hopfield Networks
- Title(参考訳): 入力駆動ホップフィールドネットワークにおけるシーケンス検索の動的理論
- Authors: Simone Betteti, Giacomo Baggio, Sandro Zampieri,
- Abstract要約: この研究はホップフィールドネットワークにおけるシーケンシャル推論の理論を発展させる。
我々は、利得閾値、逃避時間、崩壊状態を含む、自己持続型メモリ遷移の明確な条件を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning is the ability to integrate internal states and external inputs in a meaningful and semantically consistent flow. Contemporary machine learning (ML) systems increasingly rely on such sequential reasoning, from language understanding to multi-modal generation, often operating over dictionaries of prototypical patterns reminiscent of associative memory models. Understanding retrieval and sequentiality in associative memory models provides a powerful bridge to gain insight into ML reasoning. While the static retrieval properties of associative memory models are well understood, the theoretical foundations of sequential retrieval and multi-memory integration remain limited, with existing studies largely relying on numerical evidence. This work develops a dynamical theory of sequential reasoning in Hopfield networks. We consider the recently proposed input-driven plasticity (IDP) Hopfield network and analyze a two-timescale architecture coupling fast associative retrieval with slow reasoning dynamics. We derive explicit conditions for self-sustained memory transitions, including gain thresholds, escape times, and collapse regimes. Together, these results provide a principled mathematical account of sequentiality in associative memory models, bridging classical Hopfield dynamics and modern reasoning architectures.
- Abstract(参考訳): 推論(Reasoning)とは、内部の状態と外部入力を意味的かつ意味論的に一貫したフローに統合する能力である。
現代の機械学習(ML)システムは、言語理解からマルチモーダル生成まで、しばしば連想記憶モデルに類似した原型パターンの辞書を操作するようなシーケンシャルな推論にますます依存している。
連想記憶モデルにおける検索とシーケンシャル性を理解することは、ML推論に関する洞察を得るための強力なブリッジを提供する。
連想記憶モデルの静的検索特性はよく理解されているが、シーケンシャル検索とマルチメモリ統合の理論的基礎は依然として限られており、既存の研究は数値的証拠に大きく依存している。
この研究はホップフィールドネットワークにおけるシーケンシャル推論の力学理論を発展させる。
我々は,最近提案された入力駆動塑性(IDP)ホップフィールドネットワークを考察し,高速な連想検索と遅い推論力学を結合した2時間スケールアーキテクチャを解析した。
我々は、利得閾値、逃避時間、崩壊状態を含む、自己持続型メモリ遷移の明確な条件を導出する。
これらの結果は、連想記憶モデルにおける逐次性の数学的説明、古典ホップフィールド力学と現代的な推論アーキテクチャのブリッジングを提供する。
関連論文リスト
- The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - Improving Multi-step RAG with Hypergraph-based Memory for Long-Context Complex Relational Modeling [83.29209853451697]
多段階検索強化世代(RAG)は,大規模言語モデル(LLM)の拡張戦略として広く採用されている。
我々はHGMemというハイパーグラフベースのメモリ機構を導入し、複雑な推論とグローバルな理解のためにメモリの概念を動的に表現的構造に拡張する。
提案手法では,ハイパーエッジが異なるメモリ単位に対応するハイパーグラフとして表現され,メモリ内での高次相互作用の進行的形成を可能にする。
論文 参考訳(メタデータ) (2025-12-30T03:13:10Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Beyond Memorization: Extending Reasoning Depth with Recurrence, Memory and Test-Time Compute Scaling [60.63703438729223]
異なるアーキテクチャとトレーニング手法がモデル多段階推論能力にどのように影響するかを示す。
我々は,逐次計算においてモデル深度の増加が重要な役割を担っていることを確認した。
論文 参考訳(メタデータ) (2025-08-22T18:57:08Z) - Latent Structured Hopfield Network for Semantic Association and Retrieval [52.634915010996835]
エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
本稿では,連続ホップフィールドアトラクタダイナミクスを自動エンコーダアーキテクチャに統合するフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
従来のホップフィールドネットワークとは異なり、我々のモデルは勾配勾配でエンドツーエンドに訓練され、スケーラブルで堅牢なメモリ検索を実現する。
論文 参考訳(メタデータ) (2025-06-02T04:24:36Z) - Temporal Model On Quantum Logic [0.0]
このフレームワークは、線形および分岐時間モデルを用いて、時間とともに命題の進化を定式化する。
メモリの階層構造は、有向非巡回グラフを用いて表される。
論文 参考訳(メタデータ) (2025-02-09T17:16:53Z) - Input-Driven Dynamics for Robust Memory Retrieval in Hopfield Networks [3.961279440272764]
ホップフィールドモデルは、人間の脳における記憶の保存と検索のメカニズムを理解するために、数学的に理想化されたが洞察に富んだフレームワークを提供する。
本稿では,外部入力がニューラルシナプスに直接影響を与え,ホップフィールドモデルのエネルギー景観を形作る新しいシステムフレームワークを提案する。
この塑性に基づく機構は、メモリ検索プロセスの明確なエネルギー的解釈を提供し、高度に混合された入力を正しく分類するのに有効である。
論文 参考訳(メタデータ) (2024-11-06T17:24:25Z) - Theoretical framework for quantum associative memories [0.8437187555622164]
連想メモリ(Associative memory)とは、メモリと入力を関連付け、劣化したパターンの復元を目標とする能力である。
オープン量子系力学に基づく量子連想メモリのための包括的フレームワークを開発する。
論文 参考訳(メタデータ) (2024-08-26T13:46:47Z) - Understanding the Language Model to Solve the Symbolic Multi-Step Reasoning Problem from the Perspective of Buffer Mechanism [68.05754701230039]
本研究では,トランスフォーマーモデルにおける情報伝達機構を解明するために,シンボル的多段階推論タスクを構築する。
モデルの推論能力を高めるために,ランダムな行列に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - In search of dispersed memories: Generative diffusion models are
associative memory networks [6.4322891559626125]
生成拡散モデル(Generative diffusion model)は、多くのタスクにおいて優れたパフォーマンスを示す生成機械学習技術の一種である。
生成拡散モデルはエネルギーベースモデルと解釈でき、離散パターンで訓練すると、それらのエネルギー関数は現在のホップフィールドネットワークと同一であることを示す。
この等価性により、深層ニューラルネットワークの重み構造における現代のホップフィールドネットワークの連想力学を符号化するシナプス学習プロセスとして拡散モデルの教師付きトレーニングを解釈することができる。
論文 参考訳(メタデータ) (2023-09-29T14:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。