論文の概要: Why the Brain Consolidates: Predictive Forgetting for Optimal Generalisation
- arxiv url: http://arxiv.org/abs/2603.04688v1
- Date: Thu, 05 Mar 2026 00:03:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.009391
- Title: Why the Brain Consolidates: Predictive Forgetting for Optimal Generalisation
- Title(参考訳): 脳が統合する理由: 最適な一般化のための予測予測
- Authors: Zafeirios Fountas, Adnan Oomerjee, Haitham Bou-Ammar, Jun Wang, Neil Burgess,
- Abstract要約: 高容量新皮質ネットワークは,予測的忘れ込みによる複雑性の低減により,記憶された表現を一般化するために最適化することを示す。
予測的忘れは、記憶された表現に対する情報理論の一般化境界を形式的に改善することを示す。
- 参考スコア(独自算出の注目度): 17.21440333827574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard accounts of memory consolidation emphasise the stabilisation of stored representations, but struggle to explain representational drift, semanticisation, or the necessity of offline replay. Here we propose that high-capacity neocortical networks optimise stored representations for generalisation by reducing complexity via predictive forgetting, i.e. the selective retention of experienced information that predicts future outcomes or experience. We show that predictive forgetting formally improves information-theoretic generalisation bounds on stored representations. Under high-fidelity encoding constraints, such compression is generally unattainable in a single pass; high-capacity networks therefore benefit from temporally separated, iterative refinement of stored traces without re-accessing sensory input. We demonstrate this capacity dependence with simulations in autoencoder-based neocortical models, biologically plausible predictive coding circuits, and Transformer-based language models, and derive quantitative predictions for consolidation-dependent changes in neural representational geometry. These results identify a computational role for off-line consolidation beyond stabilisation, showing that outcome-conditioned compression optimises the retention-generalisation trade-off.
- Abstract(参考訳): メモリ統合の標準的な説明は、記憶された表現の安定化を強調するが、表現の漂流、セマンティック化、オフライン再生の必要性を説明するのに苦労する。
本稿では,大容量新皮質ネットワークが,将来的な成果や経験を予測する経験情報の選択的保持という,予測的忘れ込みによる複雑性の低減により,一般化のための記憶表現を最適化することを提案する。
予測的忘れは、記憶された表現に対する情報理論の一般化境界を形式的に改善することを示す。
高忠実度符号化制約の下では、そのような圧縮は一般に単一パスでは達成不可能であり、高容量ネットワークは、感覚入力に再アクセスすることなく、時間的に分離され、保存されたトレースを反復的に改善する。
本稿では, 自己エンコーダに基づく新皮質モデル, 生物学的に可塑性な予測符号化回路, トランスフォーマーに基づく言語モデルにおいて, このキャパシティ依存性をシミュレーションで示し, 神経表現幾何学における統合に依存した変化の定量的予測を導出する。
これらの結果から, 結果条件付き圧縮は, 維持・一般化トレードオフを最適化することを示す。
関連論文リスト
- Bridging Information Asymmetry: A Hierarchical Framework for Deterministic Blind Face Restoration [31.878334664450776]
セマンティックロジックと連続的なテクスチャ生成を統合した階層型フレームワークである textbfPrefRestore を提案する。
本手法は,2つの相補的戦略により,この情報格差を根本的に解決する。
Pref-Restoreは、合成および実世界のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-27T11:50:31Z) - Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability [0.0]
本稿では,Sparse Isotonic Shapley Regression (SISR)について紹介する。
SISRは単調変換を学び、加法的に復元する。-閉形式仕様の必要性を回避し、Shapleyベクトル上でL0間隔制約を強制する。
SISRはペイオフスキーム間の属性を安定化し、無関係な特徴を正しくフィルタリングする。
論文 参考訳(メタデータ) (2025-12-02T08:34:43Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Sensory robustness through top-down feedback and neural stochasticity in recurrent vision models [0.9188951403098383]
我々は、トップダウンフィードバックプロジェクションの有無のイメージ分類について、畳み込みリカレントニューラルネットワーク(ConvRNN)を訓練した。
トップダウンフィードバックを持つConvRNNは、ノイズの摂動や敵の攻撃に対して、顕著な速度精度のトレードオフと堅牢性を示した。
論文 参考訳(メタデータ) (2025-08-09T22:51:50Z) - Bottlenecked Transformers: Periodic KV Cache Consolidation for Generalised Reasoning [16.35681450323654]
トランスフォーマーLSMは推論時間計算でスケールする強力な推論能力を示すことが示されている。
KVキャッシュの書き直しによるメモリ(re)統合が、推論の改善に有効である理由を理論的に正当化する。
我々のモデルでは、バニラトランスフォーマーと停止する拡張ベースラインに対して一貫したパフォーマンス向上が見られ、選択されたタスク/バックボーンに対して最大6.6ppのゲインが得られる。
論文 参考訳(メタデータ) (2025-05-22T17:33:49Z) - CompGS++: Compressed Gaussian Splatting for Static and Dynamic Scene Representation [60.712165339762116]
CompGS++はコンパクトガウスプリミティブを活用して正確な3Dモデリングを実現する新しいフレームワークである。
私たちの設計は、プリミティブ間の冗長性をなくすという原則に基づいている。
私たちの実装は、さらなる研究を促進するためにGitHubで公開されます。
論文 参考訳(メタデータ) (2025-04-17T15:33:01Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Structured Context Recomposition for Large Language Models Using Probabilistic Layer Realignment [0.0]
本稿では,トランス層内の学習表現を動的に調整する確率的層配向戦略を提案する。
急激なトピックシフトと論理的不整合を軽減し、特にシークエンスが標準の注意窓の制約を超えるシナリオにおいて。
SCRは処理時間を適度に増加させるが、メモリオーバーヘッドは実現可能な限界内に留まり、自動回帰生成アプリケーションへの実用的なデプロイに適している。
論文 参考訳(メタデータ) (2025-01-29T12:46:42Z) - Robustifying Generalizable Implicit Shape Networks with a Tunable
Non-Parametric Model [10.316008740970037]
無向点雲からの暗黙的形状再構成の一般化可能なモデルは一般化問題に悩まされる。
ここでは、これらの制限のいくつかをテスト時に緩和する効率的なメカニズムを提案する。
本稿では,本手法によるベースラインの改良と,合成データと実データを用いた最先端技術について述べる。
論文 参考訳(メタデータ) (2023-11-21T20:12:29Z) - Disentangled Representation Learning with Transmitted Information Bottleneck [57.22757813140418]
textbfDisTIB (textbfTransmitted textbfInformation textbfBottleneck for textbfDisd representation learning) は情報圧縮と保存のバランスを保った新しい目的である。
論文 参考訳(メタデータ) (2023-11-03T03:18:40Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。