論文の概要: A remark on a paper of Krotov and Hopfield [arXiv:2008.06996]
- arxiv url: http://arxiv.org/abs/2105.15034v2
- Date: Thu, 3 Jun 2021 07:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 12:31:35.058275
- Title: A remark on a paper of Krotov and Hopfield [arXiv:2008.06996]
- Title(参考訳): krotovとhopfieldの論文について [arxiv:2008.06996]
- Authors: Fei Tang, Michael Kopp
- Abstract要約: 最近の"MLP-mixer"の層と[arXiv:2105.02723]の本質的に等価なモデルがその中にあることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In their recent paper titled "Large Associative Memory Problem in
Neurobiology and Machine Learning" [arXiv:2008.06996] the authors gave a
biologically plausible microscopic theory from which one can recover many dense
associative memory models discussed in the literature. We show that the layers
of the recent "MLP-mixer" [arXiv:2105.01601] as well as the essentially
equivalent model in [arXiv:2105.02723] are amongst them.
- Abstract(参考訳): 先日の論文 "large associative memory problem in neurobiology and machine learning" (arxiv:2008.06996) で著者らは、文献で議論された多くの密集した連想記憶モデルを取り戻せる生物学的に妥当な顕微鏡理論を提示した。
近年のmlp-mixer [arxiv:2105.01601] の層と [arxiv:2105.02723] の本質的に等価なモデルがこれに含まれることを示す。
関連論文リスト
- Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Graph-Based Retriever Captures the Long Tail of Biomedical Knowledge [2.2814097119704058]
大規模言語モデル(LLM)は、膨大な知識を要約して提示することで、情報の検索方法を変えつつある。
LLMはトレーニングセットから最も頻繁に見られる情報を強調し、まれな情報を無視する傾向があります。
本稿では,これらのクラスタをダウンサンプリングし,情報過負荷問題を緩和するために知識グラフを活用する新しい情報検索手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T18:31:11Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - Memory in Plain Sight: A Survey of the Uncanny Resemblances between
Diffusion Models and Associative Memories [68.96121108376244]
拡散モデル(DM)は、最近、多くの世代ベンチマークで最先端を定めている。
数学的に記述する方法は無数にあるため、それらがどのように機能するかを簡単に理解することは困難である。
この調査は、Associative Memories (AMs) という、非常に関連性が高く、しばしば見過ごされるエネルギーベースのモデルとの数学的関係を明らかにする。
論文 参考訳(メタデータ) (2023-09-28T17:57:09Z) - Understanding Masked Autoencoders via Hierarchical Latent Variable
Models [109.35382136147349]
Masked Autoencoder (MAE) は近年,様々な視覚タスクにおいて顕著な成功を収めている。
MAEに関する興味深い経験的観察の出現にもかかわらず、理論的に原理化された理解はいまだに欠如している。
論文 参考訳(メタデータ) (2023-06-08T03:00:10Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Analyzing Diffusion as Serial Reproduction [12.389541192789167]
拡散モデルは、データを徐々にノイズにマッピングする拡散過程を反転させることでサンプルを合成することを学ぶ。
私たちの研究は、認知科学の古典的なパラダイムが、最先端の機械学習問題に光を当てる方法を強調しています。
論文 参考訳(メタデータ) (2022-09-29T14:35:28Z) - Can the Language of the Collation be Translated into the Language of the
Stemma? Using Machine Translation for Witness Localization [0.0]
計算方法は、系統学と幹細胞学の姉妹分野の間で部分的に共有されている。
深層学習(DL)は系統学でわずかに成功した。
幹細胞学では、現在までにDLアプローチは全く知られていない。
論文 参考訳(メタデータ) (2022-06-11T20:10:21Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z) - Large Associative Memory Problem in Neurobiology and Machine Learning [6.41804410246642]
本稿では,生物的妥当性の度合いを指標とした,大きな連想記憶の有効なモデルを提案する。
我々のネットワークの力学と、その縮小次元等価性はともにエネルギー(リアプノフ)関数を最小化する。
論文 参考訳(メタデータ) (2020-08-16T21:03:52Z) - On the Replicability of Combining Word Embeddings and Retrieval Models [71.18271398274513]
我々は、Fisherカーネルフレームワークの使用に関する魅力的な仮説を実証しようとする最近の実験を再現する。
具体的には、von Mises-Fisher (VMF) 分布の混合モデルを使用することは、VMF とベクトル空間モデルの両方の余弦距離に焦点をあてることによって有益である。
論文 参考訳(メタデータ) (2020-01-13T19:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。