論文の概要: Semantic and episodic memories in a predictive coding model of the neocortex
- arxiv url: http://arxiv.org/abs/2509.01987v1
- Date: Tue, 02 Sep 2025 06:13:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.922426
- Title: Semantic and episodic memories in a predictive coding model of the neocortex
- Title(参考訳): 新皮質の予測符号化モデルにおける意味的記憶と表皮的記憶
- Authors: Lucie Fontaine, Frédéric Alexandre,
- Abstract要約: 補完学習システム理論は、知的エージェントには2つの学習システムが必要であるとしている。
セマンティックメモリは、密度が高く重なり合う表現で新皮質に符号化され、構造化された知識を取得する。
エピソード記憶は、スパースでパターン分離された表現で海馬に符号化され、個々の体験の特異点を素早く学習する。
- 参考スコア(独自算出の注目度): 1.70266830658388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complementary Learning Systems theory holds that intelligent agents need two learning systems. Semantic memory is encoded in the neocortex with dense, overlapping representations and acquires structured knowledge. Episodic memory is encoded in the hippocampus with sparse, pattern-separated representations and quickly learns the specifics of individual experiences. Recently, this duality between semantic and episodic memories has been challenged by predictive coding, a biologically plausible neural network model of the neocortex which was shown to have hippocampus-like abilities on auto-associative memory tasks. These results raise the question of the episodic capabilities of the neocortex and their relation to semantic memory. In this paper, we present such a predictive coding model of the neocortex and explore its episodic capabilities. We show that this kind of model can indeed recall the specifics of individual examples but only if it is trained on a small number of examples. The model is overfitted to these exemples and does not generalize well, suggesting that episodic memory can arise from semantic learning. Indeed, a model trained with many more examples loses its recall capabilities. This work suggests that individual examples can be encoded gradually in the neocortex using dense, overlapping representations but only in a limited number, motivating the need for sparse, pattern-separated representations as found in the hippocampus.
- Abstract(参考訳): 補完学習システム理論は、知的エージェントには2つの学習システムが必要であるとしている。
セマンティックメモリは、密度が高く重なり合う表現で新皮質に符号化され、構造化された知識を取得する。
エピソード記憶は、スパースでパターン分離された表現で海馬に符号化され、個々の体験の特異点を素早く学習する。
近年,このセマンティック・メモリとエピソード・メモリの双対性は,海馬のような能力を持つ新皮質の生物学的にプラウティブルなニューラル・ネットワークモデルである予測符号化によって問題視されている。
これらの結果は,新皮質の表皮機能とセマンティックメモリとの関連性に関する疑問を提起する。
本稿では,新皮質の予測符号化モデルを提案し,そのエピソード機能について検討する。
この種のモデルは、個々の例の具体例を実際に思い出すことができるが、少数の例で訓練されている場合のみである。
このモデルはこれらの例に過度に適合し、よく一般化せず、セマンティックラーニングからエピソード記憶が生じる可能性があることを示唆している。
実際、多くの例でトレーニングされたモデルは、リコール能力を失う。
この研究は、個々の例は、密度の高い重なり合う表現を用いて、新皮質で徐々にエンコードできるが、限られた数でしかなく、海馬に見られるようなスパースなパターン分離表現の必要性を動機付けていることを示唆している。
関連論文リスト
- Concept-Guided Interpretability via Neural Chunking [64.6429903327095]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
神経集団レベルで繰り返しチャンクを抽出する3つの方法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Can Neural Network Memorization Be Localized? [102.68044087952913]
記憶化は、モデルの様々な層において、小さなニューロンの集合に限られる現象であることを示す。
我々は、サンプルの記憶をai決定されたニューロンに直接記憶できる新しい形式のドロップアウト -- $textitexample-tied dropout$を提案する。
論文 参考訳(メタデータ) (2023-07-18T18:36:29Z) - Competitive learning to generate sparse representations for associative
memory [0.0]
本稿では,連想記憶に適したコードに画像をエンコードする生物学的にもっともらしいネットワークを提案する。
局所受容野を専門とする神経細胞のグループに編成され、競争的なスキームを通じて学習する。
論文 参考訳(メタデータ) (2023-01-05T17:57:52Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Classification and Generation of real-world data with an Associative
Memory Model [0.0]
マルチモーダル・フレームワークを用いて,基本的な連想記憶モデルの能力を拡張する。
イメージとラベルの両方をモダリティとして保存することで、単一のメモリを使用してパターンを検索し、完了させることができる。
論文 参考訳(メタデータ) (2022-07-11T12:51:27Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。