論文の概要: GradMix: Gradient-based Selective Mixup for Robust Data Augmentation in Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2505.08528v1
- Date: Tue, 13 May 2025 13:01:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.569775
- Title: GradMix: Gradient-based Selective Mixup for Robust Data Augmentation in Class-Incremental Learning
- Title(参考訳): GradMix: クラス増分学習におけるロバストデータ強化のためのグラディエントベース選択混合
- Authors: Minsu Kim, Seong-Hyeon Hwang, Steven Euijong Whang,
- Abstract要約: クラス増分学習における破滅的な忘れを軽減するための,堅牢なデータ拡張手法であるGradMixを提案する。
各種実データを用いた実験により,GradMixは過去の知識の忘れを最小化することにより,データ拡張ベースラインを精度良く上回ることを示した。
- 参考スコア(独自算出の注目度): 27.247270530020664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of continual learning, acquiring new knowledge while maintaining previous knowledge presents a significant challenge. Existing methods often use experience replay techniques that store a small portion of previous task data for training. In experience replay approaches, data augmentation has emerged as a promising strategy to further improve the model performance by mixing limited previous task data with sufficient current task data. However, we theoretically and empirically analyze that training with mixed samples from random sample pairs may harm the knowledge of previous tasks and cause greater catastrophic forgetting. We then propose GradMix, a robust data augmentation method specifically designed for mitigating catastrophic forgetting in class-incremental learning. GradMix performs gradient-based selective mixup using a class-based criterion that mixes only samples from helpful class pairs and not from detrimental class pairs for reducing catastrophic forgetting. Our experiments on various real datasets show that GradMix outperforms data augmentation baselines in accuracy by minimizing the forgetting of previous knowledge.
- Abstract(参考訳): 継続学習の文脈では、以前の知識を維持しながら新しい知識を取得することが大きな課題である。
既存の方法は、トレーニングのために以前のタスクデータのごく一部を格納する経験的再生技術を使うことが多い。
経験的リプレイアプローチでは、データ拡張は、制限された以前のタスクデータと十分な現在のタスクデータとを混合することにより、モデルパフォーマンスをさらに向上するための有望な戦略として現れている。
しかし, ランダムなサンプルペアからの混合サンプルによるトレーニングが, 過去の課題の知識を損なう可能性があり, 破滅的な忘れ込みを引き起こす可能性があることを理論的, 実証的に分析した。
そこで我々は,クラス増分学習における破滅的忘れの軽減を目的とした,堅牢なデータ拡張手法であるGradMixを提案する。
GradMixは、破滅的な忘れを抑えるために、有用なクラスペアからサンプルのみを混合するクラスベースの基準を使用して、勾配ベースの選択的なミックスアップを実行する。
各種実データを用いた実験により,GradMixは過去の知識の忘れを最小化することにより,データ拡張ベースラインを精度良く上回ることを示した。
関連論文リスト
- RC-Mixup: A Data Augmentation Strategy against Noisy Data for Regression Tasks [27.247270530020664]
本研究では,ノイズの多いデータの存在下での回帰作業におけるロバストなデータ拡張の問題について検討する。
C-Mixupは、レグレッションパフォーマンスを改善するためにラベル距離に基づいてサンプルを混合する、より選択的である。
本稿では,C-Mixupとマルチラウンドロバストな学習手法を密接に統合し,シナジスティックな効果を示すRC-Mixupを提案する。
論文 参考訳(メタデータ) (2024-05-28T08:02:42Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for Incremental Learning [93.90047628101155]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
これを解決するために、新しいタスク学習中に過去のタスクからのデータを再生する手法を提案する。
しかし、メモリの制約やデータプライバシーの問題により、実際には期待できない。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - MixRL: Data Mixing Augmentation for Regression using Reinforcement
Learning [2.1345682889327837]
データ拡張のための既存のテクニックは、主に分類タスクに焦点を当てており、回帰タスクに簡単には適用できない。
その結果,大容量データとラベル距離の混合がモデル性能に悪影響を及ぼす可能性が示唆された。
そこで本研究では,データ拡張メタ学習フレームワークであるMixRLを提案する。
論文 参考訳(メタデータ) (2021-06-07T07:01:39Z) - Continual Learning for Fake Audio Detection [62.54860236190694]
本論文では,連続学習に基づく手法である忘れずに偽物を検出することで,モデルに新たなスプーフィング攻撃をインクリメンタルに学習させる手法を提案する。
ASVspoof 2019データセットで実験が行われる。
論文 参考訳(メタデータ) (2021-04-15T07:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。