論文の概要: Data Augmentation Improves Machine Unlearning
- arxiv url: http://arxiv.org/abs/2508.18502v1
- Date: Mon, 25 Aug 2025 21:17:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.599196
- Title: Data Augmentation Improves Machine Unlearning
- Title(参考訳): データ拡張は機械学習を改善する
- Authors: Andreza M. C. Falcao, Filipe R. Cordeiro,
- Abstract要約: 異なるデータ拡張戦略が未学習手法の性能に与える影響について検討する。
適切な拡張設計は、未学習の有効性を著しく向上させる。
その結果,TrivialAug Aug Aug Aug Aug aug augmentationを用いた場合,平均ギャップ未学習の40.12%の減少が認められた。
- 参考スコア(独自算出の注目度): 0.5647577824219207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Unlearning (MU) aims to remove the influence of specific data from a trained model while preserving its performance on the remaining data. Although a few works suggest connections between memorisation and augmentation, the role of systematic augmentation design in MU remains under-investigated. In this work, we investigate the impact of different data augmentation strategies on the performance of unlearning methods, including SalUn, Random Label, and Fine-Tuning. Experiments conducted on CIFAR-10 and CIFAR-100, under varying forget rates, show that proper augmentation design can significantly improve unlearning effectiveness, reducing the performance gap to retrained models. Results showed a reduction of up to 40.12% of the Average Gap unlearning Metric, when using TrivialAug augmentation. Our results suggest that augmentation not only helps reduce memorization but also plays a crucial role in achieving privacy-preserving and efficient unlearning.
- Abstract(参考訳): Machine Unlearning(MU)は、トレーニングされたモデルから特定のデータの影響を取り除き、残りのデータのパフォーマンスを維持することを目的としている。
暗記と増補の関係を示唆する著作はいくつかあるが、MUにおける体系的な増補設計の役割は未定のままである。
本研究では,SalUn,Random Label,Final-Tuningなど,さまざまなデータ強化戦略が未学習手法のパフォーマンスに与える影響について検討する。
CIFAR-10 と CIFAR-100 で行った実験では, 適切な拡張設計が未学習の有効性を著しく向上させ, 再学習モデルの性能ギャップを低減できることが示されている。
その結果,TrivialAug Aug Aug Aug Aug aug augmentationを用いた場合,平均Gap Unlearning Metricの40.12%の低下を認めた。
以上の結果から,増補は記憶の減少に寄与するだけでなく,プライバシー保護と非学習の効率化に重要な役割を担っていることが示唆された。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - LoReUn: Data Itself Implicitly Provides Cues to Improve Machine Unlearning [33.62466543549043]
Loss-based Reweighting Unlearning(LoReUn)は、未学習プロセス中に、計算オーバーヘッドを最小限に抑えて動的にデータをリウェイトするプラグイン・アンド・プレイ戦略である。
提案手法は,既存のMU手法と画像分類タスクと生成タスクの正確なアンラーニングのギャップを著しく低減する。
論文 参考訳(メタデータ) (2025-07-30T09:12:25Z) - Streamlined Federated Unlearning: Unite as One to Be Highly Efficient [12.467630082668254]
近年,「忘れられる権利」の制定は,連邦学習(FL)に新たなプライバシー要件を課している。
本研究では, モデル性能を劣化することなく保持データに保存しつつ, 対象データの影響を効果的に除去することを目的とした, 合理化アンラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-28T12:52:48Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Deep Augmentation: Dropout as Augmentation for Self-Supervised Learning [19.495587566796278]
Deep Augmentationは、ニューラルネットワークのターゲット層にドロップアウトまたはPCA変換を適用する方法である。
レイヤ間で均一にドロップアウトを適用することで、パフォーマンスが一貫して向上しないことを示す。
また, 停止段階の操作は, 拡張として効果的にドロップアウト機能を確保するために重要であることも示している。
論文 参考訳(メタデータ) (2023-03-25T19:03:57Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。