論文の概要: Holistic Continual Learning under Concept Drift with Adaptive Memory Realignment
- arxiv url: http://arxiv.org/abs/2507.02310v1
- Date: Thu, 03 Jul 2025 04:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.670935
- Title: Holistic Continual Learning under Concept Drift with Adaptive Memory Realignment
- Title(参考訳): アダプティブ・メモリ・アライメントを用いた概念ドリフトに基づくホロスティック連続学習
- Authors: Alif Ashrafee, Jedrzej Kozal, Michal Wozniak, Bartosz Krawczyk,
- Abstract要約: 概念ドリフト下での連続学習のための総合的枠組みを導入する。
本稿では,リハーサルベースの学習者に対してドリフトアウェア適応機構を備えた軽量な代替手段であるAdaptive Memory Realignment (AMR)を提案する。
AMRはコンセプトドリフトに一貫して対抗し、最小限のオーバーヘッドで高い精度を維持する。
- 参考スコア(独自算出の注目度): 6.0897744845912865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional continual learning methods prioritize knowledge retention and focus primarily on mitigating catastrophic forgetting, implicitly assuming that the data distribution of previously learned tasks remains static. This overlooks the dynamic nature of real-world data streams, where concept drift permanently alters previously seen data and demands both stability and rapid adaptation. We introduce a holistic framework for continual learning under concept drift that simulates realistic scenarios by evolving task distributions. As a baseline, we consider Full Relearning (FR), in which the model is retrained from scratch on newly labeled samples from the drifted distribution. While effective, this approach incurs substantial annotation and computational overhead. To address these limitations, we propose Adaptive Memory Realignment (AMR), a lightweight alternative that equips rehearsal-based learners with a drift-aware adaptation mechanism. AMR selectively removes outdated samples of drifted classes from the replay buffer and repopulates it with a small number of up-to-date instances, effectively realigning memory with the new distribution. This targeted resampling matches the performance of FR while reducing the need for labeled data and computation by orders of magnitude. To enable reproducible evaluation, we introduce four concept-drift variants of standard vision benchmarks: Fashion-MNIST-CD, CIFAR10-CD, CIFAR100-CD, and Tiny-ImageNet-CD, where previously seen classes reappear with shifted representations. Comprehensive experiments on these datasets using several rehearsal-based baselines show that AMR consistently counters concept drift, maintaining high accuracy with minimal overhead. These results position AMR as a scalable solution that reconciles stability and plasticity in non-stationary continual learning environments.
- Abstract(参考訳): 従来の継続的学習手法は、知識の保持を優先し、主に破滅的な忘れを軽減し、以前に学習したタスクのデータ分布が静的であることを暗黙的に仮定する。
これは実世界のデータストリームのダイナミックな性質を見落とし、概念のドリフトは、これまで見てきたデータを永久に変更し、安定性と迅速な適応の両方を要求する。
本稿では,タスク分布の進化によって現実的なシナリオをシミュレートする,概念ドリフト下での連続学習のための総合的枠組みを提案する。
ベースラインとして、漂流分布から新たにラベル付けされたサンプルに対して、モデルがゼロから再学習されるフルリラーニング(FR)を考える。
このアプローチは有効であるが、かなりのアノテーションと計算オーバーヘッドが生じる。
これらの制約に対処するために,リハーサルベースの学習者に対してドリフト対応適応機構を備えた軽量な代替手段であるAdaptive Memory Realignment (AMR)を提案する。
AMRは、リプレイバッファから漂流したクラスの時代遅れのサンプルを選択的に取り除き、それを少数の最新のインスタンスで再ポピュレートし、新しいディストリビューションでメモリを効果的に認識する。
このターゲット再サンプリングはFRの性能と一致し、ラベル付きデータや計算を桁違いに削減する。
再現可能な評価を実現するために,Fashion-MNIST-CD, CIFAR10-CD, CIFAR100-CD, Tiny-ImageNet-CDの4種類の標準ビジョンベンチマークを導入している。
いくつかのリハーサルベースのベースラインを使用して、これらのデータセットに関する包括的な実験は、AMRが最小限のオーバーヘッドで高い精度を維持しながら、コンセプトドリフトに一貫して対抗していることを示している。
これらの結果から,非定常連続学習環境における安定性と可塑性を両立させるスケーラブルな解としてAMRを位置づけた。
関連論文リスト
- Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - PreAdaptFWI: Pretrained-Based Adaptive Residual Learning for Full-Waveform Inversion Without Dataset Dependency [8.719356558714246]
フルウェーブフォーム・インバージョン(Full-waveform Inversion、FWI)は、地震データを用いて地下媒体の物理パラメータを反転させる手法である。
異常な性質のため、FWIは局所的なミニマに閉じ込められやすい。
ニューラルネットワークとFWIを組み合わせることで、インバージョンプロセスの安定化が試みられている。
論文 参考訳(メタデータ) (2025-02-17T15:30:17Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - Non-Stationary Learning of Neural Networks with Automatic Soft Parameter Reset [98.52916361979503]
非定常性を自動的にモデル化し適応する新しい学習手法を導入する。
非定常的・非政治的強化学習環境において,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2024-11-06T16:32:40Z) - Federated Continual Learning Goes Online: Uncertainty-Aware Memory Management for Vision Tasks and Beyond [13.867793835583463]
本稿では,破滅的な記憶を解消するための不確実性を考慮したメモリベース手法を提案する。
特定の特性を持つサンプルを検索し、そのようなサンプル上でモデルを再訓練することで、このアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-05-29T09:29:39Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Employing chunk size adaptation to overcome concept drift [2.277447144331876]
ブロックベースのデータストリーム分類アルゴリズムに適応可能な新しいチャンク適応復元フレームワークを提案する。
提案アルゴリズムは,概念ドリフト検出時のデータチャンクサイズを調整し,その変更が使用済みモデルの予測性能に与える影響を最小限に抑える。
論文 参考訳(メタデータ) (2021-10-25T12:36:22Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。