論文の概要: Tell Me What To Learn: Generalizing Neural Memory to be Controllable in Natural Language
- arxiv url: http://arxiv.org/abs/2602.23201v1
- Date: Thu, 26 Feb 2026 16:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.790412
- Title: Tell Me What To Learn: Generalizing Neural Memory to be Controllable in Natural Language
- Title(参考訳): 学ぶべきこと - 自然言語で制御可能なニューラルメモリの一般化
- Authors: Max S. Bennett, Thomas P. Zollo, Richard Zemel,
- Abstract要約: 連続的な微調整とコンテキスト内学習はコストが高く、脆弱であるのに対して、ニューラルメモリメソッドは、最小限の忘れを伴って軽量な更新を約束する。
本稿では,自然言語で指定された学習命令に基づいてフレキシブルな更新を行う汎用型ニューラルメモリシステムを提案する。
- 参考スコア(独自算出の注目度): 5.152185933694933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern machine learning models are deployed in diverse, non-stationary environments where they must continually adapt to new tasks and evolving knowledge. Continual fine-tuning and in-context learning are costly and brittle, whereas neural memory methods promise lightweight updates with minimal forgetting. However, existing neural memory models typically assume a single fixed objective and homogeneous information streams, leaving users with no control over what the model remembers or ignores over time. To address this challenge, we propose a generalized neural memory system that performs flexible updates based on learning instructions specified in natural language. Our approach enables adaptive agents to learn selectively from heterogeneous information sources, supporting settings, such as healthcare and customer service, where fixed-objective memory updates are insufficient.
- Abstract(参考訳): 現代の機械学習モデルは多様な非定常環境にデプロイされ、そこでは新しいタスクに継続的に適応し、知識を進化させなければならない。
連続的な微調整とコンテキスト内学習はコストが高く、脆弱であるのに対して、ニューラルメモリメソッドは、最小限の忘れを伴って軽量な更新を約束する。
しかし、既存のニューラルメモリモデルは、通常、単一の固定された目的と均質な情報ストリームを前提としており、モデルが記憶または無視するものを制御できないユーザーを残している。
この課題に対処するために,自然言語で指定された学習命令に基づいてフレキシブルな更新を行う汎用型ニューラルメモリシステムを提案する。
提案手法では,不均一な情報ソースから適応エージェントを選択的に学習し,固定オブジェクトメモリ更新が不十分な医療やカスタマーサービスなどの設定をサポートする。
関連論文リスト
- Nested Learning: The Illusion of Deep Learning Architectures [57.41377373511876]
我々はNested Learning(NL)と呼ばれる新しい学習パラダイムを提案する。
表現的一般化は、実際には、深い記憶と/またはより強力な学習規則を持つ一般化である。
本稿では、長期記憶の伝統的な視点を一般化するメモリシステムのための新しい連続体を提案する。
論文 参考訳(メタデータ) (2025-12-31T07:59:43Z) - What Can Grokking Teach Us About Learning Under Nonstationarity? [21.031486400628854]
連続的な学習問題では、データストリームの変化に応じてニューラルネットワークの学習表現のコンポーネントを上書きする必要がある。
ニューラルネットワークは、しばしばプライマリーバイアスを示します。早期トレーニングデータによって、ネットワークが後続のタスクを一般化する能力を妨げます。
特徴学習力学の出現は, グルーキング現象を引き起こすことが知られている。
論文 参考訳(メタデータ) (2025-07-26T20:51:24Z) - Weight Factorization and Centralization for Continual Learning in Speech Recognition [55.63455095283984]
リハーサルのない多言語、言語に依存しない状態でモデルを継続的に訓練することは、破滅的な忘れを招きかねない。
人間の脳が覚醒サイクルを通じて知識を学習・統合する能力に着想を得て,継続的な学習手法を提案する。
論文 参考訳(メタデータ) (2025-06-19T19:59:24Z) - Privacy-Aware Lifelong Learning [14.83033354320841]
機械学習の分野は、要求された時に事前訓練されたモデルから、ある以前の知識を明示的に忘れることに焦点を当てている。
本稿では,タスク固有のスパースワークとパラメータ共有の最適化を含む,プライバシを意識した生涯学習(PALL)を提案する。
画像分類におけるPALLのスケーラビリティを実証的に実証し,最先端のソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-16T07:27:00Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Infinite dSprites for Disentangled Continual Learning: Separating Memory Edits from Generalization [36.23065731463065]
Infinite dSpritesは任意の長さの連続的な分類ベンチマークを作成するための擬似ツールである。
この単純なベンチマークでは、十分に長い時間をかけて、全ての主要な連続学習手法の性能が低下していることが示される。
生成因子を直接監督した簡単な設定では、学習階級に依存しない変換が破滅的な忘れを回避できる方法を示している。
論文 参考訳(メタデータ) (2023-12-27T22:05:42Z) - Meta-Learning in Spiking Neural Networks with Reward-Modulated STDP [2.179313476241343]
本研究では,海馬と前頭前皮質にインスパイアされた生物工学的メタラーニングモデルを提案する。
我々の新しいモデルはスパイクベースのニューロモーフィックデバイスに容易に適用でき、ニューロモーフィックハードウェアにおける高速な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-07T13:08:46Z) - Retentive or Forgetful? Diving into the Knowledge Memorizing Mechanism
of Language Models [49.39276272693035]
大規模事前学習型言語モデルは、顕著な記憶能力を示している。
プレトレーニングのないバニラニューラルネットワークは、破滅的な忘れ物問題に悩まされていることが長年観察されてきた。
1)バニラ言語モデルは忘れがちである; 2)事前学習は暗黙の言語モデルにつながる; 3)知識の妥当性と多様化は記憶形成に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-16T03:50:38Z) - Triple Memory Networks: a Brain-Inspired Method for Continual Learning [35.40452724755021]
ニューラルネットワークは、新しいタスクを学ぶ際にパラメータを調整するが、古いタスクをうまく実行できない。
脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。
このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-06T11:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。