論文の概要: Redirection for Erasing Memory (REM): Towards a universal unlearning method for corrupted data
- arxiv url: http://arxiv.org/abs/2505.17730v1
- Date: Fri, 23 May 2025 10:47:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.008589
- Title: Redirection for Erasing Memory (REM): Towards a universal unlearning method for corrupted data
- Title(参考訳): Redirection for Erasing Memory (REM:Redirection for Erasing Memory) : 不正データに対する普遍的アンラーニング手法を目指して
- Authors: Stefan Schoepf, Michael Curtis Mozer, Nicole Elyse Mitchell, Alexandra Brintrup, Georgios Kaissis, Peter Kairouz, Eleni Triantafillou,
- Abstract要約: 本稿では,視覚分類器における多様な学習課題を特徴付ける概念空間を提案する。
本稿では,非学習時に導入した専用ニューロンに劣化したデータをリダイレクトする手法であるRedirection for Erasing Memory (REM)を提案する。
REMは、設計された領域の外で失敗する以前のSOTAメソッドとは対照的に、タスクの空間にわたって強く機能する。
- 参考スコア(独自算出の注目度): 55.31265817705997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning is studied for a multitude of tasks, but specialization of unlearning methods to particular tasks has made their systematic comparison challenging. To address this issue, we propose a conceptual space to characterize diverse corrupted data unlearning tasks in vision classifiers. This space is described by two dimensions, the discovery rate (the fraction of the corrupted data that are known at unlearning time) and the statistical regularity of the corrupted data (from random exemplars to shared concepts). Methods proposed previously have been targeted at portions of this space and-we show-fail predictably outside these regions. We propose a novel method, Redirection for Erasing Memory (REM), whose key feature is that corrupted data are redirected to dedicated neurons introduced at unlearning time and then discarded or deactivated to suppress the influence of corrupted data. REM performs strongly across the space of tasks, in contrast to prior SOTA methods that fail outside the regions for which they were designed.
- Abstract(参考訳): 機械学習は様々なタスクに対して研究されているが、特定のタスクに対する学習方法の専門化は、その体系的な比較を困難にしている。
この問題に対処するために,視覚分類器における多様な学習課題を特徴付ける概念空間を提案する。
この空間は、発見率(未学習時に知られている腐敗データの分数)と、崩壊したデータの統計的規則性(ランダムな例から共有概念まで)という2つの次元で説明される。
これまで提案された手法は、この領域の一部と、これらの領域の外で予測可能なショーフェイルを対象としていた。
本稿では,非学習時に導入した専用ニューロンに劣化したデータをリダイレクトし,破壊したデータの影響を抑えるために破棄あるいは非活性化する新たな方法であるRedirection for Erasing Memory (REM)を提案する。
REMは、設計された領域の外で失敗する以前のSOTAメソッドとは対照的に、タスクの空間にわたって強く機能する。
関連論文リスト
- LISA: Learning-Integrated Space Partitioning Framework for Traffic Accident Forecasting on Heterogeneous Spatiotemporal Data [14.726248469735971]
交通事故の予測は、インテリジェントな交通管理と緊急対応システムにとって重要な課題である。
既存のデータ駆動手法では、異なるスケールの空間上の異種事故パターンを処理できない。
本稿では,モデルの学習中に分割を同時に学習するLearning-Integrated Space Partition Framework(LISA)を提案する。
論文 参考訳(メタデータ) (2024-12-19T19:52:19Z) - Decoupling the Class Label and the Target Concept in Machine Unlearning [81.69857244976123]
機械学習の目的は、トレーニングデータの一部を除外した再トレーニングされたモデルを近似するために、トレーニングされたモデルを調整することだ。
過去の研究では、クラスワイド・アンラーニングが対象クラスの知識を忘れることに成功していることが示された。
我々は、TARget-aware Forgetting (TARF) という一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T14:53:30Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - DUCK: Distance-based Unlearning via Centroid Kinematics [40.2428948628001]
本研究は,Centroid Kinematics (DUCK) による遠隔学習(Distance-based Unlearning)と呼ばれる新しいアンラーニングアルゴリズムを導入する。
アルゴリズムの性能評価は、様々なベンチマークデータセットにまたがって行われる。
また,適応学習スコア (Adaptive Unlearning Score, AUS) と呼ばれる新しい指標を導入し, 対象データに対する未学習プロセスの有効性だけでなく, 元のモデルに対する性能損失の定量化も行った。
論文 参考訳(メタデータ) (2023-12-04T17:10:25Z) - Class-wise Federated Unlearning: Harnessing Active Forgetting with Teacher-Student Memory Generation [11.638683787598817]
能動的忘れ込みに基づく神経刺激型フェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、新しい記憶を利用して古い記憶を上書きすることで、既存の方法と差別化している。
本手法は,バックドア攻撃に対する未学習の完全性を実現する。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。