論文の概要: Latent learning: episodic memory complements parametric learning by enabling flexible reuse of experiences
- arxiv url: http://arxiv.org/abs/2509.16189v1
- Date: Fri, 19 Sep 2025 17:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.265875
- Title: Latent learning: episodic memory complements parametric learning by enabling flexible reuse of experiences
- Title(参考訳): 潜時学習--体験の柔軟な再利用を可能にすることでパラメトリック学習を補完するエピソード記憶
- Authors: Andrew Kyle Lampinen, Martin Engelcke, Yuxuan Li, Arslan Chaudhry, James L. McClelland,
- Abstract要約: 私たちは認知科学からインスピレーションを得て、機械学習システムの弱点の1つは、潜伏学習の欠如であると主張している。
言語モデリングにおける逆の呪いからエージェントベースのナビゲーションに関する新たな発見まで,この視点が障害の関連性を示す。
オラクル検索機構を備えたシステムでは,学習体験をより柔軟に活用して一般化できることを示す。
- 参考スコア(独自算出の注目度): 12.033681189657742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When do machine learning systems fail to generalize, and what mechanisms could improve their generalization? Here, we draw inspiration from cognitive science to argue that one weakness of machine learning systems is their failure to exhibit latent learning -- learning information that is not relevant to the task at hand, but that might be useful in a future task. We show how this perspective links failures ranging from the reversal curse in language modeling to new findings on agent-based navigation. We then highlight how cognitive science points to episodic memory as a potential part of the solution to these issues. Correspondingly, we show that a system with an oracle retrieval mechanism can use learning experiences more flexibly to generalize better across many of these challenges. We also identify some of the essential components for effectively using retrieval, including the importance of within-example in-context learning for acquiring the ability to use information across retrieved examples. In summary, our results illustrate one possible contributor to the relative data inefficiency of current machine learning systems compared to natural intelligence, and help to understand how retrieval methods can complement parametric learning to improve generalization.
- Abstract(参考訳): 機械学習システムが一般化に失敗したとき、その一般化を改善するメカニズムは何だろうか?
ここでは、認知科学からインスピレーションを得て、機械学習システムの弱点の1つは、潜在学習を示すことができないことだ、と論じる。
この視点は、言語モデリングにおける逆の呪いからエージェントベースのナビゲーションに関する新たな発見まで、障害をいかに関連づけるかを示す。
そして、これらの問題の解決策の潜在的な部分として認知科学がエピソード記憶をどう指すかを強調します。
それに対応して、オラクル検索機構を持つシステムでは、学習体験をより柔軟に利用して、これらの課題の多くをまたがってより一般化できることが示される。
また,検索を効果的に活用する上で不可欠な要素として,抽出されたサンプル間で情報を利用する能力を得る上で,コンテキスト内学習の重要性があげられる。
要約して,本研究の結果は,現在の機械学習システムにおいて,自然知性と比較して相対的データ非効率性に寄与する可能性の一つを示し,探索手法がパラメトリック学習を補完し,一般化を改善する方法について理解する助けとなる。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Decomposed Inductive Procedure Learning: Learning Academic Tasks with Human-Like Data Efficiency [1.9165956916475038]
学習を複数の異なるメカニズムに分解することで、データの効率が大幅に向上することがわかった。
このギャップを埋めるためには,複数の専門的な学習機構を統合することが重要である。
論文 参考訳(メタデータ) (2025-05-15T15:39:09Z) - Composite Learning Units: Generalized Learning Beyond Parameter Updates to Transform LLMs into Adaptive Reasoners [0.0]
連続学習が可能な学習者へ推論器を変換する複合学習ユニット(CLU)を導入する。
CLUは、動的知識リポジトリの保守と進化を可能にするアーキテクチャ上に構築されている。
我々は暗号推論タスクを通じてCLUの有効性を実証し、フィードバックを通じて理解を継続的に進化させ、隠れた変換規則を明らかにする。
論文 参考訳(メタデータ) (2024-10-09T02:27:58Z) - Towards Automated Knowledge Integration From Human-Interpretable Representations [55.2480439325792]
我々は,情報メタ学習の原理を理論的に導入・動機付けし,自動的かつ制御可能な帰納バイアス選択を可能にする。
データ効率と一般化を改善するための情報メタラーニングのメリットと限界を実証的に示す。
論文 参考訳(メタデータ) (2024-02-25T15:08:37Z) - A Survey to Recent Progress Towards Understanding In-Context Learning [37.933016939520684]
In-Context Learning (ICL) は、プロンプトで提供されるいくつかの例から学ぶことができる大規模言語モデル(LLM)を強化する。
実証的な成功にもかかわらず、ICLの根底にあるメカニズムはいまだ不明である。
論文 参考訳(メタデータ) (2024-02-03T17:13:03Z) - Worth of knowledge in deep learning [3.132595571344153]
我々は、知識の価値を評価するために、解釈可能な機械学習にインスパイアされたフレームワークを提案する。
我々の研究結果は、依存、相乗効果、置換効果を含む、データと知識の複雑な関係を解明する。
我々のモデルに依存しないフレームワークは、様々な共通ネットワークアーキテクチャに適用でき、ディープラーニングモデルにおける事前知識の役割を包括的に理解することができる。
論文 参考訳(メタデータ) (2023-07-03T02:25:19Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Decoupling Knowledge from Memorization: Retrieval-augmented Prompt
Learning [113.58691755215663]
一般化と記憶のバランスをとるためにRetroPromptを開発した。
バニラプロンプト学習とは対照的に、RetroPromptはトレーニングインスタンスからオープンブックナレッジストアを構築する。
大規模な実験により、RetroPromptは、数ショットとゼロショットの両方で、より良いパフォーマンスを得ることができることが示されている。
論文 参考訳(メタデータ) (2022-05-29T16:07:30Z) - Feature Forgetting in Continual Representation Learning [48.89340526235304]
表現は、平凡な連続学習においても「破滅的な忘れ」に苦しめられることはないが、その特徴についてはほとんど知られていない。
連続的な学習における表現を評価するためのプロトコルを考案し、それを用いて連続的な表現学習の基本的傾向の概要を示す。
特徴忘れ問題を研究するために、ニューラルネットワークにおける特徴忘れの頻度を識別し視覚化する合成データセットを作成する。
論文 参考訳(メタデータ) (2022-05-26T13:38:56Z) - Active Reinforcement Learning -- A Roadmap Towards Curious Classifier
Systems for Self-Adaptation [0.456877715768796]
知的システムにおける「能動的強化学習」についての研究課題を策定することを目的とする。
従来のアプローチでは、学習問題を分離し、さまざまな分野の機械学習からテクニックを分離的に利用している。
論文 参考訳(メタデータ) (2022-01-11T13:50:26Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。