論文の概要: Bridging Associative Memory and Probabilistic Modeling
- arxiv url: http://arxiv.org/abs/2402.10202v1
- Date: Thu, 15 Feb 2024 18:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 14:11:49.602041
- Title: Bridging Associative Memory and Probabilistic Modeling
- Title(参考訳): ブリッジング連想記憶と確率的モデリング
- Authors: Rylan Schaeffer, Nika Zahedi, Mikail Khona, Dhruv Pai, Sang Truong,
Yilun Du, Mitchell Ostrow, Sarthak Chandra, Andres Carranza, Ila Rani Fiete,
Andrey Gromov, Sanmi Koyejo
- Abstract要約: 連想記憶と確率的モデリングは人工知能の2つの基本的なトピックである。
両方向のアイデアの有用なフローを実現するために,この2つの橋を架けています。
- 参考スコア(独自算出の注目度): 30.32889433757583
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Associative memory and probabilistic modeling are two fundamental topics in
artificial intelligence. The first studies recurrent neural networks designed
to denoise, complete and retrieve data, whereas the second studies learning and
sampling from probability distributions. Based on the observation that
associative memory's energy functions can be seen as probabilistic modeling's
negative log likelihoods, we build a bridge between the two that enables useful
flow of ideas in both directions. We showcase four examples: First, we propose
new energy-based models that flexibly adapt their energy functions to new
in-context datasets, an approach we term \textit{in-context learning of energy
functions}. Second, we propose two new associative memory models: one that
dynamically creates new memories as necessitated by the training data using
Bayesian nonparametrics, and another that explicitly computes proportional
memory assignments using the evidence lower bound. Third, using tools from
associative memory, we analytically and numerically characterize the memory
capacity of Gaussian kernel density estimators, a widespread tool in
probababilistic modeling. Fourth, we study a widespread implementation choice
in transformers -- normalization followed by self attention -- to show it
performs clustering on the hypersphere. Altogether, this work urges further
exchange of useful ideas between these two continents of artificial
intelligence.
- Abstract(参考訳): 連想記憶と確率的モデリングは人工知能の2つの基本的なトピックである。
第1の研究は、データを識別し、完全化し、取り出すように設計されたニューラルネットワークを、第2の研究は確率分布から学習し、サンプリングする。
連想記憶のエネルギー関数は確率的モデリングの負の対数確率と見なすことができるという観測に基づいて,両方向のアイデアの有用な流れを可能にする両者の橋渡しを構築する。
まず、エネルギー関数を新しいインコンテキストデータセットに柔軟に適応させる新しいエネルギーベースモデルを提案し、エネルギー関数の「textit{in-context learning of energy function」と呼ぶアプローチを示す。
第2に,ベイズ非パラメトリックスを用いたトレーニングデータで必要となる新たなメモリを動的に生成するモデルと,証拠下限を用いて比例メモリ割り当てを明示的に計算するモデルを提案する。
第3に,連想記憶のツールを用いて,確率的モデリングにおける幅広いツールであるガウス核密度推定器のメモリ容量を解析的,数値的に特徴付ける。
第4に、超球上でクラスタ化を行うことを示すために、トランスフォーマの広範な実装選択 -- 正規化と自己注意 -- を研究した。
この研究は、これらの2つの大陸間の有用なアイデアの交換を促す。
関連論文リスト
- Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Benchmarking Hebbian learning rules for associative memory [0.0]
連想記憶は認知と計算の脳科学における重要な概念である。
ストレージ容量とプロトタイプ抽出に関する6つの異なる学習ルールをベンチマークする。
論文 参考訳(メタデータ) (2023-12-30T21:49:47Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - On the Relationship Between Variational Inference and Auto-Associative
Memory [68.8204255655161]
本フレームワークでは, 変動推論に対する異なるニューラルネットワークアプローチが適用可能であるかを検討する。
得られたアルゴリズムをCIFAR10とCLEVRの画像データセットで評価し,他の連想記憶モデルと比較した。
論文 参考訳(メタデータ) (2022-10-14T14:18:47Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Universal Hopfield Networks: A General Framework for Single-Shot
Associative Memory Models [41.58529335439799]
本稿では,メモリネットワークの動作を3つの操作のシーケンスとして理解するための一般的なフレームワークを提案する。
これらのメモリモデルはすべて、類似性と分離関数が異なる一般的なフレームワークのインスタンスとして導出します。
論文 参考訳(メタデータ) (2022-02-09T16:48:06Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Large Associative Memory Problem in Neurobiology and Machine Learning [6.41804410246642]
本稿では,生物的妥当性の度合いを指標とした,大きな連想記憶の有効なモデルを提案する。
我々のネットワークの力学と、その縮小次元等価性はともにエネルギー(リアプノフ)関数を最小化する。
論文 参考訳(メタデータ) (2020-08-16T21:03:52Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。