論文の概要: Dense associative memory on the Bures-Wasserstein space
- arxiv url: http://arxiv.org/abs/2509.23162v1
- Date: Sat, 27 Sep 2025 07:17:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.078537
- Title: Dense associative memory on the Bures-Wasserstein space
- Title(参考訳): ビュール=ワッサーシュタイン空間上のデンス連想記憶
- Authors: Chandan Tankala, Krishnakumar Balasubramanian,
- Abstract要約: DAMを2-ワッサーシュタイン距離を備えた確率分布に拡張する。
本フレームワークは,記憶された分布上の対数sum-expエネルギーと最適輸送マップを集約する検索ダイナミックスを定義する。
この研究は、ベクトルから完全分布への連想記憶を高め、現代の生成モデルで古典的DAMをブリッジし、メモリ拡張学習における分布記憶と検索を可能にする。
- 参考スコア(独自算出の注目度): 3.9592985572259884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense associative memories (DAMs) store and retrieve patterns via energy-functional fixed points, but existing models are limited to vector representations. We extend DAMs to probability distributions equipped with the 2-Wasserstein distance, focusing mainly on the Bures-Wasserstein class of Gaussian densities. Our framework defines a log-sum-exp energy over stored distributions and a retrieval dynamics aggregating optimal transport maps in a Gibbs-weighted manner. Stationary points correspond to self-consistent Wasserstein barycenters, generalizing classical DAM fixed points. We prove exponential storage capacity, provide quantitative retrieval guarantees under Wasserstein perturbations, and validate the model on synthetic and real-world distributional tasks. This work elevates associative memory from vectors to full distributions, bridging classical DAMs with modern generative modeling and enabling distributional storage and retrieval in memory-augmented learning.
- Abstract(参考訳): DAM(Dense AssociativeMemory)は、エネルギー関数的固定点によるパターンの保存と検索を行うが、既存のモデルはベクトル表現に限られる。
DAMを2-ワッサーシュタイン距離を持つ確率分布に拡張し、主にガウス密度のビュール=ワッサーシュタイン類に焦点をあてる。
本フレームワークは,蓄積分布上の対数sum-expエネルギーと,ギブス重み付け方式で最適輸送マップを集約する検索ダイナミクスを定義する。
定常点は、古典的DAM固定点を一般化する自己整合ワッサーシュタインバリセンターに対応する。
指数記憶容量を証明し、ワッサーシュタイン摂動下での定量的検索保証を提供し、合成および実世界の分散タスクにおけるモデルの有効性を検証した。
この研究は、ベクトルから完全分布への連想記憶を高め、現代の生成モデルで古典的DAMをブリッジし、メモリ拡張学習における分布記憶と検索を可能にする。
関連論文リスト
- Fast Estimation of Wasserstein Distances via Regression on Sliced Wasserstein Distances [70.94157767200342]
本稿では,スライスされたワッサーシュタイン距離の回帰に基づく高速推定法を提案する。
少数の分布対から正確なモデルを学習できることが示される。
我々の手法は、最先端のワッサーシュタイン埋め込みモデルであるワッサーシュタインワームホールよりも、ワッサーシュタイン距離の近似が常に優れている。
論文 参考訳(メタデータ) (2025-09-24T19:30:53Z) - Likelihood Training of Cascaded Diffusion Models via Hierarchical Volume-preserving Maps [19.573246885611923]
確率的マルチスケールモデルにおける根本的な難しさを克服しさえすれば、カスケードモデルは優れた確率モデルになり得ることを示す。
主にカスケードモデルにおいて、各中間スケールは、可能性評価のために取り除くことができない余剰変数を導入している。
また、ラプラシアピラミッドとウェーブレット変換は、確率モデルにおけるベンチマークの選択における最先端の大幅な改善をもたらすことを示した。
論文 参考訳(メタデータ) (2025-01-13T01:20:23Z) - Beyond Log-Concavity and Score Regularity: Improved Convergence Bounds for Score-Based Generative Models in W2-distance [0.0]
生成モデル(SGM)における$mathcalW$-convergenceを解析するための新しいフレームワークを提案する。
データ分布の弱い対数共振器は時間とともに対数共振器へと進化することを示す。
本手法は,スコア関数とその推定器上での厳密な規則性条件の必要性を回避するものである。
論文 参考訳(メタデータ) (2025-01-04T14:33:27Z) - Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - Bellman Diffusion: Generative Modeling as Learning a Linear Operator in the Distribution Space [72.52365911990935]
本稿では,MDPの線形性を維持する新しいDGMフレームワークであるBellman Diffusionを紹介する。
この結果から,ベルマン拡散は分布RLタスクにおける従来のヒストグラムベースベースラインよりも1.5倍高速に収束し,精度の高い画像生成装置であることがわかった。
論文 参考訳(メタデータ) (2024-10-02T17:53:23Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Continuous Regularized Wasserstein Barycenters [51.620781112674024]
正規化ワッサーシュタイン・バリセンタ問題に対する新しい双対定式化を導入する。
我々は、強い双対性を確立し、対応する主対関係を用いて、正規化された輸送問題の双対ポテンシャルを用いて暗黙的にバリセンターをパラメトリゼーションする。
論文 参考訳(メタデータ) (2020-08-28T08:28:06Z) - Nested-Wasserstein Self-Imitation Learning for Sequence Generation [158.19606942252284]
分布意味マッチングのためのネスト・ワッサーシュタイン距離の概念を提案する。
ネストされたワッサーシュタインの自己想像学習フレームワークを開発し、歴史ある高次列を利用するようモデルに奨励する。
論文 参考訳(メタデータ) (2020-01-20T02:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。