論文の概要: Unlearning-based sliding window for continual learning under concept drift
- arxiv url: http://arxiv.org/abs/2603.14484v1
- Date: Sun, 15 Mar 2026 17:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.840895
- Title: Unlearning-based sliding window for continual learning under concept drift
- Title(参考訳): 概念ドリフト下での連続学習のための非学習ベーススライディングウィンドウ
- Authors: Michal Wozniak, Marek Klonowski, Maciej Maczynski, Bartosz Krawczyk,
- Abstract要約: タスクのない連続学習では、モデルは明示的なタスクの同一性やタスク境界なしに逐次適応しなければなりません。
一般的な解決策はスライディングウィンドウに基づいているが、このアプローチは計算的に要求されることが多い。
我々は,機械学習に基づく異なる視点を提案する。
- 参考スコア(独自算出の注目度): 7.178067516457216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional machine learning assumes a stationary data distribution, yet many real-world applications operate on nonstationary streams in which the underlying concept evolves over time. This problem can also be viewed as task-free continual learning under concept drift, where a model must adapt sequentially without explicit task identities or task boundaries. In such settings, effective learning requires both rapid adaptation to new data and forgetting of outdated information. A common solution is based on a sliding window, but this approach is often computationally demanding because the model must be repeatedly retrained from scratch on the most recent data. We propose a different perspective based on machine unlearning. Instead of rebuilding the model each time the active window changes, we remove the influence of outdated samples using unlearning and then update the model with newly observed data. This enables efficient, targeted forgetting while preserving adaptation to evolving distributions. To the best of our knowledge, this is the first work to connect machine unlearning with concept drift mitigation for task-free continual learning. Empirical results on image stream classification across multiple drift scenarios demonstrate that the proposed approach offers a competitive and computationally efficient alternative to standard sliding-window retraining. Our implementation can be found at \hrehttps://anonymous.4open.science/r/MUNDataStream-60F3}{https://anonymous.4open.science/r/MUNDataStream-60F3}.
- Abstract(参考訳): 従来の機械学習は定常的なデータ分布を前提としていますが、多くの現実世界のアプリケーションは、基礎となる概念が時間とともに進化する非定常的なストリームで動作します。
この問題は、モデルが明示的なタスク識別やタスク境界なしに逐次適応しなければならない概念ドリフトの下でのタスクフリー連続学習と見なすこともできる。
このような環境では、効果的な学習は、新しいデータへの迅速な適応と、時代遅れの情報を忘れることの両方を必要とする。
一般的な解決策はスライディングウインドウに基づいているが、最近のデータではモデルがスクラッチから繰り返し再トレーニングされなければならないため、このアプローチは計算的に要求されることが多い。
我々は,機械学習に基づく異なる視点を提案する。
アクティブウィンドウが変化するたびにモデルを再構築する代わりに、アンラーニングを用いて古いサンプルの影響を取り除き、新たに観測されたデータでモデルを更新する。
これにより、進化する分布への適応を保ちながら、効率的で目標とする忘れ込みが可能になる。
我々の知る限りでは、これはタスクなし連続学習のための機械学習とコンセプトドリフト緩和を結びつける最初の試みである。
複数のドリフトシナリオにまたがる画像ストリーム分類に関する実証的な結果から,提案手法は標準的なスライディングウインドウ・リトレーニングに代わる,競争的で効率的な代替手段を提供することが示された。
我々の実装は \hrehttps://anonymous.4open.science/r/MUNDataStream-60F3}{https://anonymous.4open.science/r/MUNDataStream-60F3} で見ることができる。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Liquid Neural Network-based Adaptive Learning vs. Incremental Learning for Link Load Prediction amid Concept Drift due to Network Failures [37.66676003679306]
概念の漂流に適応することは、機械学習において難しい課題である。
通信ネットワークでは、障害イベントの後に交通予報を行う際にこのような問題が生じる。
本稿では,適応学習アルゴリズム,すなわち,データパターンの急激な変化を,再学習を必要とせずに自己適応できる手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T08:47:46Z) - An Information Theoretic Approach to Machine Unlearning [43.423418819707784]
AIやデータ規則に従うためには、トレーニングされた機械学習モデルからプライベートまたは著作権のある情報を忘れる必要性がますます高まっている。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Learning Representations on the Unit Sphere: Investigating Angular
Gaussian and von Mises-Fisher Distributions for Online Continual Learning [7.145581090959242]
本稿では,新たな損失関数を備えたメモリベース表現学習手法を提案する。
提案手法は,タスク境界がぼやけた標準的な評価シナリオと現実的なシナリオの両方において,現状の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-06T02:38:01Z) - Unsupervised Unlearning of Concept Drift with Autoencoders [5.41354952642957]
コンセプトドリフトは、将来のサンプルのデータストリームに影響を与えるデータ分散の変化を指す。
本稿では,世界レベルでの教師なしおよびモデルに依存しないドリフト適応手法を提案する。
論文 参考訳(メタデータ) (2022-11-23T14:52:49Z) - Cooperative data-driven modeling [44.99833362998488]
メカニクスにおけるデータ駆動モデリングは、最近の機械学習の進歩に基づいて急速に進化している。
異なるグループによって作成された新しいデータとモデルが利用可能となり、協調モデリングの可能性が開ける。
人工ニューラルネットワークは、破滅的な忘れ、すなわち、新しいタスクでトレーニングされたときに古いタスクを実行する方法を忘れることに苦しむ。
これは、新しいタスクに既存のモデルを適用することが、誰かによって訓練された前のタスクのパフォーマンスに影響を与えるため、協力を妨げる。
論文 参考訳(メタデータ) (2022-11-23T14:27:25Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。