論文の概要: Continual Learning for non-stationary regression via Memory-Efficient Replay
- arxiv url: http://arxiv.org/abs/2602.09720v1
- Date: Tue, 10 Feb 2026 12:22:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.529248
- Title: Continual Learning for non-stationary regression via Memory-Efficient Replay
- Title(参考訳): メモリ有効再生による非定常回帰の連続学習
- Authors: Pablo García-Santaclara, Bruno Fernández-Castro, RebecaP. Díaz-Redondo, Martín Alonso-Gamarra,
- Abstract要約: オンラインタスクフリー連続回帰のためのプロトタイプベース生成再生フレームワークを提案する。
提案手法は適応的な出力空間の離散化モデルを定義し, 原データを保存することなく, 連続回帰のためのプロトタイプベースの生成再生を可能にする。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data streams are rarely static in dynamic environments like Industry 4.0. Instead, they constantly change, making traditional offline models outdated unless they can quickly adjust to the new data. This need can be adequately addressed by continual learning (CL), which allows systems to gradually acquire knowledge without incurring the prohibitive costs of retraining them from scratch. Most research on continual learning focuses on classification problems, while very few studies address regression tasks. We propose the first prototype-based generative replay framework designed for online task-free continual regression. Our approach defines an adaptive output-space discretization model, enabling prototype-based generative replay for continual regression without storing raw data. Evidence obtained from several benchmark datasets shows that our framework reduces forgetting and provides more stable performance than other state-of-the-art solutions.
- Abstract(参考訳): 産業4.0のような動的環境では、データストリームはめったに静的ではない。
代わりに、新しいデータに迅速に対応できなければ、従来のオフラインモデルは時代遅れになる。
このニーズは継続学習(CL)によって適切に対処できるため、スクラッチからリトレーニングすることの禁止コストを発生させることなく、システムは徐々に知識を習得することができる。
連続学習のほとんどの研究は分類問題に焦点を当てているが、回帰タスクに対処する研究はほとんどない。
オンラインタスクフリー連続回帰のためのプロトタイプベース生成再生フレームワークを提案する。
提案手法は適応的な出力空間の離散化モデルを定義し, 原データを保存することなく, 連続回帰のためのプロトタイプベースの生成再生を可能にする。
いくつかのベンチマークデータセットから得られた証拠は、我々のフレームワークが忘れを減らし、他の最先端ソリューションよりも安定したパフォーマンスを提供することを示している。
関連論文リスト
- Continuous Visual Autoregressive Generation via Score Maximization [69.67438563485887]
本稿では,ベクトル量子化なしで直接視覚的自己回帰生成を可能にする連続VARフレームワークを提案する。
このフレームワークの中で必要なのは、厳密な適切なスコアを選択し、最適化のトレーニング目標として設定することだけです。
論文 参考訳(メタデータ) (2025-05-12T17:58:14Z) - Forget Forgetting: Continual Learning in a World of Abundant Memory [55.64184779530581]
継続的な学習は伝統的に、模範記憶の最小化に重点を置いてきた。
本稿では、より現実的な体制を探求することによって、このパラダイムに挑戦する。
モデルが以前のタスクに偏り、新しいタスクを学ぶのに苦労するようになるにつれて、中心的な課題が安定性から可塑性へと変化していくことが分かっています。
論文 参考訳(メタデータ) (2025-02-11T05:40:52Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for Incremental Learning [93.90047628101155]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
これを解決するために、新しいタスク学習中に過去のタスクからのデータを再生する手法を提案する。
しかし、メモリの制約やデータプライバシーの問題により、実際には期待できない。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Streaming Active Learning for Regression Problems Using Regression via
Classification [12.572218568705376]
本稿では,回帰学習のためのストリーミング能動学習にレグレッション・ウィズ・クラス化フレームワークを用いることを提案する。
レグレッション・ウィズ・クラス化は回帰問題を分類問題に変換し、ストリーミング能動学習法を回帰問題に直接適用できるようにする。
論文 参考訳(メタデータ) (2023-09-02T20:24:24Z) - Deep Regression Unlearning [6.884272840652062]
我々は、プライバシー攻撃に対して堅牢な、一般化された深層回帰学習手法を導入する。
我々は、コンピュータビジョン、自然言語処理、予測アプリケーションのための回帰学習実験を行う。
論文 参考訳(メタデータ) (2022-10-15T05:00:20Z) - Bypassing Logits Bias in Online Class-Incremental Learning with a
Generative Framework [15.345043222622158]
我々は、時間とともに新しいクラスが出現するオンラインのクラス増分学習環境に焦点を当てる。
既存のほとんどのメソッドは、ソフトマックス分類器を使ったリプレイベースである。
特徴空間に基づく新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-19T06:54:20Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。