論文の概要: Mitigating Catastrophic Forgetting in Streaming Generative and Predictive Learning via Stateful Replay
- arxiv url: http://arxiv.org/abs/2511.17936v1
- Date: Sat, 22 Nov 2025 06:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.524242
- Title: Mitigating Catastrophic Forgetting in Streaming Generative and Predictive Learning via Stateful Replay
- Title(参考訳): ステートフル・リプレイによる生成・予測学習のストリーミングにおけるカタストロフィック・フォーミングの軽減
- Authors: Wenzhang Du,
- Abstract要約: 本稿では,ストリーミング自動エンコード時系列予測と分類のためのステートフルリプレイについて統一的な研究を行う。
我々は,Rotated MNIST, ElectricityLoadDiagrams 2011-2014, Airlines遅延データから構築した6つのストリーミングシナリオに対して,単一再生機構を評価する。
ヘテロジニアスなマルチタスクストリームでは、リプレイは平均忘れを2~3倍に減らし、良質な時間ベースストリームでは、どちらのメソッドも同じように動作する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many deployed learning systems must update models on streaming data under memory constraints. The default strategy, sequential fine-tuning on each new phase, is architecture-agnostic but often suffers catastrophic forgetting when later phases correspond to different sub-populations or tasks. Replay with a finite buffer is a simple alternative, yet its behaviour across generative and predictive objectives is not well understood. We present a unified study of stateful replay for streaming autoencoding, time series forecasting, and classification. We view both sequential fine-tuning and replay as stochastic gradient methods for an ideal joint objective, and use a gradient alignment analysis to show when mixing current and historical samples should reduce forgetting. We then evaluate a single replay mechanism on six streaming scenarios built from Rotated MNIST, ElectricityLoadDiagrams 2011-2014, and Airlines delay data, using matched training budgets and three seeds. On heterogeneous multi task streams, replay reduces average forgetting by a factor of two to three, while on benign time based streams both methods perform similarly. These results position stateful replay as a strong and simple baseline for continual learning in streaming environments.
- Abstract(参考訳): 多くのデプロイされた学習システムは、メモリ制約下でのストリーミングデータのモデルを更新する必要がある。
デフォルトの戦略は、新しいフェーズごとに逐次微調整されるが、アーキテクチャに依存しないが、後続のフェーズが異なるサブポピュレーションやタスクに対応する場合、しばしば破滅的な忘れを被る。
有限バッファによるリプレイは単純な方法であるが、生成的および予測的目的に対するその振る舞いはよく理解されていない。
本稿では,ストリーミング自動符号化,時系列予測,分類のためのステートフルなリプレイについて検討する。
逐次微調整とリプレイの両方を,理想的な関節目的のための確率的勾配法とみなし,電流と過去の試料の混合が忘れを減少させることを示すために勾配アライメント解析を用いる。
次に,Rotated MNIST, ElectricityLoadDiagrams 2011-2014, and Airlines delay dataから構築した6つのストリーミングシナリオに対して,一致したトレーニング予算と3つのシードを用いて,単一のリプレイ機構を評価する。
ヘテロジニアスなマルチタスクストリームでは、リプレイは平均忘れを2~3倍に減らし、良質な時間ベースストリームでは、どちらのメソッドも同じように動作する。
これらの結果は、ストリーミング環境における連続学習の強靭でシンプルなベースラインとしてステートフルなリプレイを位置づけている。
関連論文リスト
- Stable Video Infinity: Infinite-Length Video Generation with Error Recycling [76.91310169118408]
本研究では、高時間一貫性、可視的シーン遷移、制御可能なストリーミングストーリーラインを有する無限長ビデオを生成することができる安定ビデオインフィニティ(SVI)を提案する。
SVIにはError-Recycling Fine-Tuningが組み込まれており、これはDiffusion Transformerの自己生成エラーをスーパーバイザのプロンプトにリサイクルする、新しいタイプの効率的なトレーニングである。
我々は、一貫性、創造性、条件設定を含む3つのベンチマークでSVIを評価し、その汎用性と最先端の役割を徹底的に検証した。
論文 参考訳(メタデータ) (2025-10-10T09:45:46Z) - Self Forcing: Bridging the Train-Test Gap in Autoregressive Video Diffusion [67.94300151774085]
本稿では,自己回帰ビデオ拡散モデルのための新しい訓練パラダイムであるSelf Forcingを紹介する。
露光バイアスの長年の問題に対処し、地道的な文脈で訓練されたモデルは、自身の不完全な出力で条件付けられたシーケンスを生成する必要がある。
論文 参考訳(メタデータ) (2025-06-09T17:59:55Z) - ODEStream: A Buffer-Free Online Learning Framework with ODE-based Adaptor for Streaming Time Series Forecasting [11.261457967759688]
ODEStreamはバッファフリーの連続的な学習フレームワークで、データ内の時間的依存関係をキャプチャするための時間的分離レイヤを備えている。
連続したデータ表現を生成し、データストリーミングシナリオにおける動的変更へのシームレスな適応を可能にする。
我々のアプローチは、過去のデータの動的および分布が時間とともにどのように変化するかを学ぶことに集中し、ストリーミングシーケンスの直接処理を容易にする。
論文 参考訳(メタデータ) (2024-11-11T22:36:33Z) - Watch Your Step: Optimal Retrieval for Continual Learning at Scale [1.7265013728931]
連続学習では、モデルは古いタスクと新しいタスクの間の干渉を最小限にしながら、時間とともに漸進的に学習する。
継続的学習における最も広く使われているアプローチの1つは、リプレイと呼ばれる。
本稿では,単純で独立したクラス選択型プリミティブとサンプル選択型プリミティブによって分類された選択的検索戦略を評価するためのフレームワークを提案する。
本稿では,重複したリプレイを防止し,損失値の低い新しいサンプルをリプレイなしで学習できるかどうかを探索する戦略を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:35:35Z) - Learning from One Continuous Video Stream [70.30084026960819]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - PCR: Proxy-based Contrastive Replay for Online Class-Incremental
Continual Learning [16.67238259139417]
既存のリプレイベースのメソッドは、プロキシベースのあるいはコントラストベースのリプレイ方式で古いデータの一部を保存し、再生することで、この問題を効果的に緩和する。
プロキシベースコントラストリプレイ(PCR)と呼ばれる新しいリプレイ方式を提案する。
論文 参考訳(メタデータ) (2023-04-10T06:35:19Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。