論文の概要: Modern Methods in Associative Memory
- arxiv url: http://arxiv.org/abs/2507.06211v1
- Date: Tue, 08 Jul 2025 17:40:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.374605
- Title: Modern Methods in Associative Memory
- Title(参考訳): 連想記憶の現代的方法
- Authors: Dmitry Krotov, Benjamin Hoover, Parikshit Ram, Bao Pham,
- Abstract要約: 連想記憶(Associative Memories)は、完全なリカレントニューラルネットワークを記述するためのエレガントなモデルである。
このチュートリアルはAssociative Memoriesの親しみやすい紹介を提供し、この研究領域で使われている現代言語と手法を強調している。
- 参考スコア(独自算出の注目度): 22.436758411803233
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Associative Memories like the famous Hopfield Networks are elegant models for describing fully recurrent neural networks whose fundamental job is to store and retrieve information. In the past few years they experienced a surge of interest due to novel theoretical results pertaining to their information storage capabilities, and their relationship with SOTA AI architectures, such as Transformers and Diffusion Models. These connections open up possibilities for interpreting the computation of traditional AI networks through the theoretical lens of Associative Memories. Additionally, novel Lagrangian formulations of these networks make it possible to design powerful distributed models that learn useful representations and inform the design of novel architectures. This tutorial provides an approachable introduction to Associative Memories, emphasizing the modern language and methods used in this area of research, with practical hands-on mathematical derivations and coding notebooks.
- Abstract(参考訳): 有名なホップフィールド・ネットワークのような連想記憶は、情報の保存と取得を基本とする完全反復ニューラルネットワークを記述するためのエレガントなモデルである。
過去数年間、彼らは情報記憶能力と、トランスフォーマーや拡散モデルのようなSOTA AIアーキテクチャとの関係に関する新しい理論的な結果により、関心が高まりました。
これらの接続は、Associative Memoriesの理論レンズを通じて、従来のAIネットワークの計算を解釈する可能性を開く。
さらに、これらのネットワークの新しいラグランジアン定式化により、有用な表現を学習し、新しいアーキテクチャの設計を知らせる強力な分散モデルの設計が可能になる。
このチュートリアルはAssociative Memoriesの親しみやすい紹介を提供し、この研究領域で使われている現代言語と手法を強調し、実践的な数学的導出とコーディングノートを用いている。
関連論文リスト
- Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Serving Deep Learning Model in Relational Databases [70.53282490832189]
リレーショナルデータ上での深層学習(DL)モデルの実現は、様々な商業分野や科学分野において重要な要件となっている。
最先端のDL中心アーキテクチャは、DL計算を専用のDLフレームワークにオフロードします。
UDF中心アーキテクチャの可能性は、リレーショナルデータベース管理システム(RDBMS)内の1つ以上のテンソル計算をユーザ定義関数(UDF)にカプセル化する。
論文 参考訳(メタデータ) (2023-10-07T06:01:35Z) - In search of dispersed memories: Generative diffusion models are
associative memory networks [6.4322891559626125]
生成拡散モデル(Generative diffusion model)は、多くのタスクにおいて優れたパフォーマンスを示す生成機械学習技術の一種である。
生成拡散モデルはエネルギーベースモデルと解釈でき、離散パターンで訓練すると、それらのエネルギー関数は現在のホップフィールドネットワークと同一であることを示す。
この等価性により、深層ニューラルネットワークの重み構造における現代のホップフィールドネットワークの連想力学を符号化するシナプス学習プロセスとして拡散モデルの教師付きトレーニングを解釈することができる。
論文 参考訳(メタデータ) (2023-09-29T14:48:24Z) - On the Relationship Between Variational Inference and Auto-Associative
Memory [68.8204255655161]
本フレームワークでは, 変動推論に対する異なるニューラルネットワークアプローチが適用可能であるかを検討する。
得られたアルゴリズムをCIFAR10とCLEVRの画像データセットで評価し,他の連想記憶モデルと比較した。
論文 参考訳(メタデータ) (2022-10-14T14:18:47Z) - Model-Based Machine Learning for Communications [110.47840878388453]
モデルベースのアルゴリズムと機械学習をハイレベルな視点で組み合わせるための既存の戦略を見直します。
通信受信機の基本的なタスクの一つであるシンボル検出に注目する。
論文 参考訳(メタデータ) (2021-01-12T19:55:34Z) - Continuous-Variable Deep Quantum Neural Networks for Flexible Learning
of Structured Classical Information [0.0]
我々は,連続可変(CV)モデルの特性を利用して,スタック化された単一モードネットワークを構築する。
99.98%以上の忠実度に古典的な情報を学習するためのネットワークの適応性を示す。
論文 参考訳(メタデータ) (2020-06-19T02:01:59Z) - Delta Schema Network in Model-based Reinforcement Learning [125.99533416395765]
この研究は、伝達学習の非効率性である人工知能の未解決問題に焦点が当てられている。
環境データからオブジェクトとアクション間の論理的関係を抽出できるスキーマネットワーク手法を拡張している。
本稿では,デルタネットワーク(DSN)をトレーニングし,環境の将来状態を予測し,前向きな報酬をもたらす計画行動を示すアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-17T15:58:25Z) - Characterizing an Analogical Concept Memory for Architectures
Implementing the Common Model of Cognition [1.468003557277553]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2020-06-02T21:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。