論文の概要: Beyond Uniform Deletion: A Data Value-Weighted Framework for Certified Machine Unlearning
- arxiv url: http://arxiv.org/abs/2511.06794v1
- Date: Mon, 10 Nov 2025 07:32:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.137862
- Title: Beyond Uniform Deletion: A Data Value-Weighted Framework for Certified Machine Unlearning
- Title(参考訳): Uniform Deletionを超えて - 認定されたマシンアンラーニングのためのデータバリュー重み付けフレームワーク
- Authors: Lisong He, Yi Yang, Xiangyu Chang,
- Abstract要約: 非学習プロセスにおけるデータ価値の不均一性を考慮に入れた一般的なアンラーニングフレームワークであるデータ価値重み付きアンラーニング(DVWU)を提案する。
具体的には、データ値に基づいて重み付け戦略を設計し、それをアンラーニング手順に統合し、モデルに様々な有用性を持つデータポイントの差別化未学習を可能にする。
合成と実世界の両方のデータセットを用いた実験により,本手法は従来の非学習手法と比較して予測性能と頑健性に優れることを示した。
- 参考スコア(独自算出の注目度): 15.318946573379145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the right to be forgotten becomes legislated worldwide, machine unlearning mechanisms have emerged to efficiently update models for data deletion and enhance user privacy protection. However, existing machine unlearning algorithms frequently neglect the fact that different data points may contribute unequally to model performance (i.e., heterogeneous data values). Treat them equally in machine unlearning procedure can potentially degrading the performance of updated models. To address this limitation, we propose Data Value-Weighted Unlearning (DVWU), a general unlearning framework that accounts for data value heterogeneity into the unlearning process. Specifically, we design a weighting strategy based on data values, which are then integrated into the unlearning procedure to enable differentiated unlearning for data points with varying utility to the model. The DVWU framework can be broadly adapted to various existing machine unlearning methods. We use the one-step Newton update as an example for implementation, developing both output and objective perturbation algorithms to achieve certified unlearning. Experiments on both synthetic and real-world datasets demonstrate that our methods achieve superior predictive performance and robustness compared to conventional unlearning approaches. We further show the extensibility of our framework on gradient ascent method by incorporating the proposed weighting strategy into the gradient terms, highlighting the adaptability of DVWU for broader gradient-based deep unlearning methods.
- Abstract(参考訳): 忘れられる権利が世界中で合法化されるにつれて、データ削除のためのモデルを効率的に更新し、ユーザのプライバシ保護を強化するための機械学習メカニズムが出現した。
しかし、既存の機械学習アルゴリズムは、異なるデータポイントがモデルの性能(不均一なデータ値)に不平等に寄与するという事実をしばしば無視する。
マシンアンラーニングの手順で同じように扱うことは、更新されたモデルの性能を低下させる可能性がある。
この制限に対処するため,データ価値の不均一性を考慮した一般学習フレームワークであるData Value-Weighted Unlearning (DVWU)を提案する。
具体的には、データ値に基づいて重み付け戦略を設計し、それをアンラーニング手順に統合し、モデルに様々な有用性を持つデータポイントの微分アンラーニングを可能にする。
DVWUフレームワークは、様々な既存の機械学習手法に広く適応することができる。
我々は、一段階のニュートン更新を実装の例として使用し、証明された未学習を達成するために、出力と客観的摂動アルゴリズムの両方を開発します。
合成と実世界の両方のデータセットを用いた実験により,本手法は従来の非学習手法と比較して予測性能と頑健性に優れることを示した。
さらに,より広範な勾配に基づく深層学習手法に対するDVWUの適用性を強調し,提案した重み付け戦略を勾配項に組み込むことにより,勾配上昇法におけるフレームワークの拡張性を示す。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Learning to Unlearn for Robust Machine Unlearning [6.488418950340473]
学習過程を最適化する新しいLTU(Learning-to-Unlearn)フレームワークを提案する。
LTUは、モデルが一般化可能な知識を効果的に保存することを容易にするメタ最適化スキームを含んでいる。
また、記憶と忘れのための最適化トラジェクトリを整列するグラディエント調和戦略も導入する。
論文 参考訳(メタデータ) (2024-07-15T07:36:00Z) - Machine unlearning through fine-grained model parameters perturbation [26.653596302257057]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。