論文の概要: Input-Driven Dynamics for Robust Memory Retrieval in Hopfield Networks
- arxiv url: http://arxiv.org/abs/2411.05849v1
- Date: Wed, 06 Nov 2024 17:24:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:10:36.195171
- Title: Input-Driven Dynamics for Robust Memory Retrieval in Hopfield Networks
- Title(参考訳): ホップフィールドネットワークにおけるロバストメモリ検索のための入力駆動ダイナミクス
- Authors: Simone Betteti, Giacomo Baggio, Francesco Bullo, Sandro Zampieri,
- Abstract要約: ホップフィールドモデルは、人間の脳における記憶の保存と検索のメカニズムを理解するために、数学的に理想化されたが洞察に富んだフレームワークを提供する。
本稿では,外部入力がニューラルシナプスに直接影響を与え,ホップフィールドモデルのエネルギー景観を形作る新しいシステムフレームワークを提案する。
この塑性に基づく機構は、メモリ検索プロセスの明確なエネルギー的解釈を提供し、高度に混合された入力を正しく分類するのに有効である。
- 参考スコア(独自算出の注目度): 3.961279440272764
- License:
- Abstract: The Hopfield model provides a mathematically idealized yet insightful framework for understanding the mechanisms of memory storage and retrieval in the human brain. This model has inspired four decades of extensive research on learning and retrieval dynamics, capacity estimates, and sequential transitions among memories. Notably, the role and impact of external inputs has been largely underexplored, from their effects on neural dynamics to how they facilitate effective memory retrieval. To bridge this gap, we propose a novel dynamical system framework in which the external input directly influences the neural synapses and shapes the energy landscape of the Hopfield model. This plasticity-based mechanism provides a clear energetic interpretation of the memory retrieval process and proves effective at correctly classifying highly mixed inputs. Furthermore, we integrate this model within the framework of modern Hopfield architectures, using this connection to elucidate how current and past information are combined during the retrieval process. Finally, we embed both the classic and the new model in an environment disrupted by noise and compare their robustness during memory retrieval.
- Abstract(参考訳): ホップフィールドモデルは、人間の脳における記憶の保存と検索のメカニズムを理解するために、数学的に理想化されたが洞察に富んだフレームワークを提供する。
このモデルは、学習と検索のダイナミクス、キャパシティ推定、メモリ間のシーケンシャルな遷移に関する40年間にわたる研究にインスピレーションを与えている。
特に、外部入力の役割と影響は、ニューラルダイナミクスに対する影響から、効果的なメモリ検索の促進まで、大半が調査されていない。
このギャップを埋めるために、外部入力が神経シナプスに直接影響を与え、ホップフィールドモデルのエネルギー景観を形作る新しい動的システムフレームワークを提案する。
この塑性に基づく機構は、メモリ検索プロセスの明確なエネルギー的解釈を提供し、高度に混合された入力を正しく分類するのに有効である。
さらに,最近のホップフィールドアーキテクチャの枠組みにこのモデルを統合することで,検索プロセス中に現在の情報と過去の情報がどのように組み合わされているかを明らかにする。
最後に、従来のモデルと新しいモデルの両方をノイズによって破壊された環境に埋め込んで、メモリ検索時のロバスト性を比較する。
関連論文リスト
- Meta-Dynamical State Space Models for Integrative Neural Data Analysis [8.625491800829224]
環境間の共有構造を学習することは、ニューラルネットワークの迅速な学習と適応的な振る舞いを促進する。
ニューラル記録から潜伏ダイナミクスを学習するのと同様の作業中に、ニューラルアクティビティの共有構造を利用する作業は限られている。
本稿では,訓練動物のタスク関連神経活動から,この解空間をメタラーニングするための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T19:35:49Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - A Waddington landscape for prototype learning in generalized Hopfield
networks [0.0]
一般化ホップフィールドネットワークの学習力学について検討する。
細胞が分化するにつれて、運河や低次元のダイナミックスと強い類似性が観察される。
論文 参考訳(メタデータ) (2023-12-04T21:28:14Z) - Inferring Relational Potentials in Interacting Systems [56.498417950856904]
このような相互作用を発見する代替手法として、ニューラル・インタラクション・推論(NIIP)を提案する。
NIIPは観測された関係制約を尊重する軌道のサブセットに低エネルギーを割り当てる。
別々に訓練されたモデル間での相互作用の型を交換するなどの軌道操作や、軌道予測を可能にする。
論文 参考訳(メタデータ) (2023-10-23T00:44:17Z) - In search of dispersed memories: Generative diffusion models are
associative memory networks [6.4322891559626125]
生成拡散モデル(Generative diffusion model)は、多くのタスクにおいて優れたパフォーマンスを示す生成機械学習技術の一種である。
生成拡散モデルはエネルギーベースモデルと解釈でき、離散パターンで訓練すると、それらのエネルギー関数は現在のホップフィールドネットワークと同一であることを示す。
この等価性により、深層ニューラルネットワークの重み構造における現代のホップフィールドネットワークの連想力学を符号化するシナプス学習プロセスとして拡散モデルの教師付きトレーニングを解釈することができる。
論文 参考訳(メタデータ) (2023-09-29T14:48:24Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Canonical Cortical Graph Neural Networks and its Application for Speech
Enhancement in Future Audio-Visual Hearing Aids [0.726437825413781]
本稿では, 層内変調を用いたマルチモーダル情報と正準相関解析(CCA)を組み合わせた, より生物学的に妥当な自己教師型機械学習手法を提案する。
この手法は、よりクリーンなオーディオ再構成とエネルギー効率の両方を考慮した最近の最先端の結果より優れており、スモーザーでスモーザーなニューロンの発火速度分布によって説明されている。
論文 参考訳(メタデータ) (2022-06-06T15:20:07Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Slow manifolds in recurrent networks encode working memory efficiently
and robustly [0.0]
ワーキングメモリ(working memory)は、潜在情報の保存と操作を短時間で行う認知機能である。
作業メモリのネットワークレベルメカニズムを調べるために,トップダウンモデリング手法を用いる。
論文 参考訳(メタデータ) (2021-01-08T18:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。