論文の概要: System-Aware Unlearning Algorithms: Use Lesser, Forget Faster
- arxiv url: http://arxiv.org/abs/2506.06073v1
- Date: Fri, 06 Jun 2025 13:30:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.488851
- Title: System-Aware Unlearning Algorithms: Use Lesser, Forget Faster
- Title(参考訳): システム対応のアンラーニングアルゴリズム: より少ない使用とより高速な適用
- Authors: Linda Lu, Ayush Sekhari, Karthik Sridharan,
- Abstract要約: 本稿では,線形分類のための厳密なシステム認識型アンラーニングアルゴリズムを提案する。
理論的には、削除能力、正確性、メモリ、計算時間の間のトレードオフを分析する。
- 参考スコア(独自算出の注目度): 15.783636887138904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning addresses the problem of updating a machine learning model/system trained on a dataset $S$ so that the influence of a set of deletion requests $U \subseteq S$ on the unlearned model is minimized. The gold standard definition of unlearning demands that the updated model, after deletion, be nearly identical to the model obtained by retraining. This definition is designed for a worst-case attacker (one who can recover not only the unlearned model but also the remaining data samples, i.e., $S \setminus U$). Such a stringent definition has made developing efficient unlearning algorithms challenging. However, such strong attackers are also unrealistic. In this work, we propose a new definition, system-aware unlearning, which aims to provide unlearning guarantees against an attacker that can at best only gain access to the data stored in the system for learning/unlearning requests and not all of $S\setminus U$. With this new definition, we use the simple intuition that if a system can store less to make its learning/unlearning updates, it can be more secure and update more efficiently against a system-aware attacker. Towards that end, we present an exact system-aware unlearning algorithm for linear classification using a selective sampling-based approach, and we generalize the method for classification with general function classes. We theoretically analyze the tradeoffs between deletion capacity, accuracy, memory, and computation time.
- Abstract(参考訳): 機械学習はデータセットでトレーニングされた機械学習モデル/システムを$S$で更新する問題に対処するため、削除要求セットのU \subseteq S$が未学習モデルに与える影響を最小限にする。
未学習のゴールドスタンダードの定義は、更新されたモデルが削除された後、再学習によって得られたモデルとほぼ同一であることが要求される。
この定義は、最悪の攻撃者(未学習のモデルだけでなく、残りのデータサンプル、すなわち$S \setminus U$を復元できる者)のために設計されている。
このような厳密な定義は、効率的な未学習アルゴリズムの開発を困難にしている。
しかし、そのような強力な攻撃者もまた現実的ではない。
本研究では,学習/学習要求のためにシステムに格納されたデータにのみアクセス可能な攻撃者に対して,S\setminus U$のすべてではなく,攻撃者に対して非学習保証を提供することを目的とした,システム認識型アンラーニング(system-aware unlearning)という新たな定義を提案する。
この新しい定義では、システムが学習/学習更新をあまり保存しないなら、より安全になり、システムに認識された攻撃者に対してより効率的に更新できる、という単純な直感を使う。
そこで我々は,選択的なサンプリングベースアプローチを用いた線形分類のためのシステム認識アンラーニングアルゴリズムを提案し,一般関数クラスを用いた分類法を一般化する。
理論的には、削除能力、正確性、メモリ、計算時間の間のトレードオフを分析する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - LoRA Unlearns More and Retains More (Student Abstract) [0.0]
PruneLoRAは、モデルに低ランクの更新を適用することで、大規模なパラメータ更新の必要性を減らす。
そこで我々はLoRAを利用してプルーンドモデルのパラメータのサブセットを選択的に修正し、計算コスト、メモリ要件を低減し、残りのクラスの性能を維持するモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-11-16T16:47:57Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Hessian-Free Online Certified Unlearning [8.875278412741695]
ほぼ瞬時にデータを除去するオンライン・アンラーニングアルゴリズムを開発した。
提案手法は,非学習および一般化保証の観点から,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-02T07:54:18Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Deep Unlearning: Fast and Efficient Gradient-free Approach to Class Forgetting [9.91998873101083]
学習モデルから特定のクラスを戦略的に除去する新しいクラスアンラーニングアルゴリズムを提案する。
我々のアルゴリズムは、メンバーシップ推論攻撃(MIA)に対する競争的アンラーニング性能とレジリエンスを示す。
論文 参考訳(メタデータ) (2023-12-01T18:29:08Z) - Verifiable and Provably Secure Machine Unlearning [44.142771334058715]
機械学習は、トレーニング後の機械学習モデルのトレーニングデータセットからポイントを取り除くことを目的としている。
未学習システムの保証を正式に把握するために,検証可能な未学習の暗号的定義を初めて提示する。
我々は,3種類の非学習手法のプロトコルを実装し,線形回帰,ロジスティック回帰,ニューラルネットワークの実現可能性を検証する。
論文 参考訳(メタデータ) (2022-10-17T14:19:52Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。