論文の概要: Memory Encoding Model
- arxiv url: http://arxiv.org/abs/2308.01175v1
- Date: Wed, 2 Aug 2023 14:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 12:41:25.453011
- Title: Memory Encoding Model
- Title(参考訳): メモリ符号化モデル
- Authors: Huzheng Yang, James Gee, Jianbo Shi
- Abstract要約: メモリ関連情報を入力として付加することにより,脳エンコーディングモデルの新しいクラスを探索する。
視覚記憶の認知タスクでは、視覚的でない脳は、これまで見られた画像から予測可能であることが分かりました。
- 参考スコア(独自算出の注目度): 14.943061215875655
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We explore a new class of brain encoding model by adding memory-related
information as input. Memory is an essential brain mechanism that works
alongside visual stimuli. During a vision-memory cognitive task, we found the
non-visual brain is largely predictable using previously seen images. Our
Memory Encoding Model (Mem) won the Algonauts 2023 visual brain competition
even without model ensemble (single model score 66.8, ensemble score 70.8). Our
ensemble model without memory input (61.4) can also stand a 3rd place.
Furthermore, we observe periodic delayed brain response correlated to 6th-7th
prior image, and hippocampus also showed correlated activity timed with this
periodicity. We conjuncture that the periodic replay could be related to memory
mechanism to enhance the working memory.
- Abstract(参考訳): メモリ関連情報を入力として付加することにより,新しい脳エンコーディングモデルを提案する。
記憶は視覚刺激と共に働く重要な脳機構である。
視覚記憶認知課題では,これまで見てきた画像を用いて非視覚脳が予測可能であることが判明した。
私たちのメモリエンコーディングモデル(Mem)は、モデルアンサンブルなしでも(シングルモデルスコア66.8、アンサンブルスコア70.8)、Algonauts 2023視覚脳コンテストで優勝しました。
メモリ入力のないアンサンブルモデル(61.4)も3位に立つことができる。
さらに, 周期的遅延脳反応は第6~7次前野画像と相関し, 海馬はこの周期性と時間的活動の相関を示した。
我々は、周期的なリプレイが作業メモリを強化するためのメモリ機構と関連している可能性を示唆する。
関連論文リスト
- Hierarchical Working Memory and a New Magic Number [1.024113475677323]
本稿では,作業記憶のシナプス理論の枠組み内でチャンキングを行うための繰り返しニューラルネットワークモデルを提案する。
我々の研究は、認知に不可欠な脳内の情報のオンザフライ組織を理解するための、概念的で分析的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-08-14T16:03:47Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - An associative memory model with very high memory rate: Image storage by
sequential addition learning [0.0]
本システムは、キューボール内の1つのキューニューロンとリコールネット内のニューロンとの双方向学習を実現する。
多くのパターンを記憶し、これらのパターンや、いつでも似たパターンを思い出すことができる。
論文 参考訳(メタデータ) (2022-10-08T02:56:23Z) - A bio-inspired implementation of a sparse-learning spike-based
hippocampus memory model [0.0]
本研究では,海馬に基づくバイオインスパイアされた新しい記憶モデルを提案する。
記憶を覚えたり、キューから思い出したり、同じキューで他の人を学ぼうとする時の記憶を忘れたりできる。
この研究は、完全に機能するバイオインスパイアされたスパイクベースの海馬記憶モデルの最初のハードウェア実装を示す。
論文 参考訳(メタデータ) (2022-06-10T07:48:29Z) - BayesPCN: A Continually Learnable Predictive Coding Associative Memory [15.090562171434815]
BayesPCNは、メタ学習なしで連続的なワンショットメモリ書き込みを実行することができる階層型連想メモリである。
実験の結果、ベイズPCNは数百の「タイムステップ」を観測した高次元データをリコールできるが、リコール能力は大幅に低下する。
論文 参考訳(メタデータ) (2022-05-20T02:28:11Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。