論文の概要: Replay Can Provably Increase Forgetting
- arxiv url: http://arxiv.org/abs/2506.04377v1
- Date: Wed, 04 Jun 2025 18:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.385249
- Title: Replay Can Provably Increase Forgetting
- Title(参考訳): リプレイはおそらく期待を増す
- Authors: Yasaman Mahdaviyeh, James Lucas, Mengye Ren, Andreas S. Tolias, Richard Zemel, Toniann Pitassi,
- Abstract要約: 継続的な学習にとって重要な課題は、新しいタスクが導入されるにつれて、以前に学習したタスクのパフォーマンスが低下する、忘れることである。
忘れることを減らすためによく使われる技法の1つ、サンプル再生は、忘れることを減らすために経験的に示されている。
ノイズのない設定であっても,リプレイサンプル数に関して,忘れることはモノトニックではないことを示す。
- 参考スコア(独自算出の注目度): 24.538643224479515
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Continual learning seeks to enable machine learning systems to solve an increasing corpus of tasks sequentially. A critical challenge for continual learning is forgetting, where the performance on previously learned tasks decreases as new tasks are introduced. One of the commonly used techniques to mitigate forgetting, sample replay, has been shown empirically to reduce forgetting by retaining some examples from old tasks and including them in new training episodes. In this work, we provide a theoretical analysis of sample replay in an over-parameterized continual linear regression setting, where each task is given by a linear subspace and with enough replay samples, one would be able to eliminate forgetting. Our analysis focuses on sample replay and highlights the role of the replayed samples and the relationship between task subspaces. Surprisingly, we find that, even in a noiseless setting, forgetting can be non-monotonic with respect to the number of replay samples. We present tasks where replay can be harmful with respect to worst-case settings, and also in distributional settings where replay of randomly selected samples increases forgetting in expectation. We also give empirical evidence that harmful replay is not limited to training with linear models by showing similar behavior for a neural networks equipped with SGD. Through experiments on a commonly used benchmark, we provide additional evidence that, even in seemingly benign scenarios, performance of the replay heavily depends on the choice of replay samples and the relationship between tasks.
- Abstract(参考訳): 継続的学習は、機械学習システムがタスクのコーパスを逐次的に解決できるようにすることを目指している。
継続的な学習にとって重要な課題は、新しいタスクが導入されるにつれて、以前に学習したタスクのパフォーマンスが低下する、忘れることである。
忘れを緩和する技法の1つ、サンプル再生は、古いタスクからいくつか例を残して新しいトレーニングエピソードに含めることで、忘れを減らし、経験的に現れる。
本研究では,各タスクが線形部分空間と十分なリプレイサンプルによって与えられるような,過度にパラメータ化された連続線形回帰設定において,サンプルのリプレイに関する理論的解析を行う。
本分析は, サンプル再生に焦点をあて, リプレイされたサンプルの役割とタスク部分空間の関係を明らかにする。
驚いたことに、ノイズのない環境でも、リプレイサンプルの数に関して、忘れることはモノトニックではないことが判明した。
本稿では, 最悪の場合において, リプレイが有害なタスクを示すとともに, ランダムに選択したサンプルのリプレイが期待通りに忘れ去ってしまうような分散的設定について述べる。
また、有害なリプレイは、SGDを備えたニューラルネットワークに対して同様の振る舞いを示すことによって、線形モデルによるトレーニングに限らないという実証的な証拠を与える。
一般的に使用されるベンチマークの実験を通じて、一見したシナリオであっても、リプレイのパフォーマンスは、リプレイの選択肢とタスク間の関係に大きく依存する、という追加の証拠を提供する。
関連論文リスト
- Watch Your Step: Optimal Retrieval for Continual Learning at Scale [1.7265013728931]
連続学習では、モデルは古いタスクと新しいタスクの間の干渉を最小限にしながら、時間とともに漸進的に学習する。
継続的学習における最も広く使われているアプローチの1つは、リプレイと呼ばれる。
本稿では,単純で独立したクラス選択型プリミティブとサンプル選択型プリミティブによって分類された選択的検索戦略を評価するためのフレームワークを提案する。
本稿では,重複したリプレイを防止し,損失値の低い新しいサンプルをリプレイなしで学習できるかどうかを探索する戦略を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:35:35Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for Incremental Learning [93.90047628101155]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
これを解決するために、新しいタスク学習中に過去のタスクからのデータを再生する手法を提案する。
しかし、メモリの制約やデータプライバシーの問題により、実際には期待できない。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Can BERT Refrain from Forgetting on Sequential Tasks? A Probing Study [68.75670223005716]
BERTのような事前学習型言語モデルでは,メモリリプレイが少なくても,逐次学習が可能であることが判明した。
実験の結果,BERT は従来学習したタスクに対して,極めて疎らなリプレイや,さらにはリプレイを行なわずに,長期間にわたって高品質な表現を生成できることが判明した。
論文 参考訳(メタデータ) (2023-03-02T09:03:43Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - An Investigation of Replay-based Approaches for Continual Learning [79.0660895390689]
連続学習(CL)は機械学習(ML)の大きな課題であり、破滅的忘れ(CF)を伴わずに連続的に複数のタスクを学習する能力を記述する。
いくつかの解クラスが提案されており、その単純さと堅牢性から、いわゆるリプレイベースのアプローチは非常に有望であるように思われる。
連続学習におけるリプレイに基づくアプローチを実証的に検討し,応用の可能性を評価する。
論文 参考訳(メタデータ) (2021-08-15T15:05:02Z) - Distilled Replay: Overcoming Forgetting through Synthetic Samples [11.240947363668242]
リプレイ戦略は、過去の経験からパターンのバッファを保持することで破滅的な忘れを緩和する継続的学習技術である。
この研究は、非常に小さなバッファを維持して忘れを緩和できる、連続学習のための新しいリプレイ戦略である蒸留リプレイを紹介している。
データセットからランダムにパターンを抽出したnaive replayに対する蒸留リプレイの有効性を,4つの一般的な連続学習ベンチマークで示す。
論文 参考訳(メタデータ) (2021-03-29T18:02:05Z) - Stratified Experience Replay: Correcting Multiplicity Bias in Off-Policy
Reinforcement Learning [17.3794999533024]
深部RLは異常なデータの存在に苦慮しているように見える。
近年の研究では、DQN(Deep Q-Network)の性能はリプレイメモリが大きすぎると劣化することが示された。
我々は,リプレイメモリ上で一様にサンプリングする動機を再検討し,関数近似を用いた場合の欠陥を見出した。
論文 参考訳(メタデータ) (2021-02-22T19:29:18Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。