論文の概要: A remark on a paper of Krotov and Hopfield [arXiv:2008.06996]
- arxiv url: http://arxiv.org/abs/2105.15034v1
- Date: Mon, 31 May 2021 15:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:51:51.490787
- Title: A remark on a paper of Krotov and Hopfield [arXiv:2008.06996]
- Title(参考訳): krotovとhopfieldの論文について [arxiv:2008.06996]
- Authors: Fei Tang, Michael Kopp
- Abstract要約: 最近の"MLP-mixer"の層と[arXiv:2105.02723]の本質的に等価なモデルがその中にあることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In their recent paper titled "Large Associative Memory Problem in
Neurobiology and Machine Learning" [arXiv:2008.06996] the authors gave a
biologically plausible microscopic theory from which one can recover many dense
associative memory models discussed in the literature. We show that the layers
of the recent "MLP-mixer" [arXiv:2105.01601] as well as the essentially
equivalent model in [arXiv:2105.02723] are amongst them.
- Abstract(参考訳): 先日の論文 "large associative memory problem in neurobiology and machine learning" (arxiv:2008.06996) で著者らは、文献で議論された多くの密集した連想記憶モデルを取り戻せる生物学的に妥当な顕微鏡理論を提示した。
近年のmlp-mixer [arxiv:2105.01601] の層と [arxiv:2105.02723] の本質的に等価なモデルがこれに含まれることを示す。
関連論文リスト
- Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Joint Lemmatization and Morphological Tagging with LEMMING [127.91619168948502]
本稿では,レマタイズとタグ付けを共同でモデル化するモジュール型対数線形モデルLEMMingを提案する。
金の標準タグとレマタでアノテートされたコーパスで訓練でき、形態辞書やアナライザに依存しない。
論文 参考訳(メタデータ) (2024-05-28T16:01:19Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Graph-Based Retriever Captures the Long Tail of Biomedical Knowledge [2.2814097119704058]
大規模言語モデル(LLM)は、膨大な知識を要約して提示することで、情報の検索方法を変えつつある。
LLMはトレーニングセットから最も頻繁に見られる情報を強調し、まれな情報を無視する傾向があります。
本稿では,これらのクラスタをダウンサンプリングし,情報過負荷問題を緩和するために知識グラフを活用する新しい情報検索手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T18:31:11Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - Analyzing Diffusion as Serial Reproduction [12.389541192789167]
拡散モデルは、データを徐々にノイズにマッピングする拡散過程を反転させることでサンプルを合成することを学ぶ。
私たちの研究は、認知科学の古典的なパラダイムが、最先端の機械学習問題に光を当てる方法を強調しています。
論文 参考訳(メタデータ) (2022-09-29T14:35:28Z) - Can the Language of the Collation be Translated into the Language of the
Stemma? Using Machine Translation for Witness Localization [0.0]
計算方法は、系統学と幹細胞学の姉妹分野の間で部分的に共有されている。
深層学習(DL)は系統学でわずかに成功した。
幹細胞学では、現在までにDLアプローチは全く知られていない。
論文 参考訳(メタデータ) (2022-06-11T20:10:21Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z) - Large Associative Memory Problem in Neurobiology and Machine Learning [6.41804410246642]
本稿では,生物的妥当性の度合いを指標とした,大きな連想記憶の有効なモデルを提案する。
我々のネットワークの力学と、その縮小次元等価性はともにエネルギー(リアプノフ)関数を最小化する。
論文 参考訳(メタデータ) (2020-08-16T21:03:52Z) - On the Replicability of Combining Word Embeddings and Retrieval Models [71.18271398274513]
我々は、Fisherカーネルフレームワークの使用に関する魅力的な仮説を実証しようとする最近の実験を再現する。
具体的には、von Mises-Fisher (VMF) 分布の混合モデルを使用することは、VMF とベクトル空間モデルの両方の余弦距離に焦点をあてることによって有益である。
論文 参考訳(メタデータ) (2020-01-13T19:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。