論文の概要: Auditing Approximate Machine Unlearning for Differentially Private Models
- arxiv url: http://arxiv.org/abs/2508.18671v1
- Date: Tue, 26 Aug 2025 04:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.679618
- Title: Auditing Approximate Machine Unlearning for Differentially Private Models
- Title(参考訳): 微分プライベートモデルのための近似機械の学習
- Authors: Yuechun Gu, Jiajie He, Keke Chen,
- Abstract要約: 筆者らは, 学習アルゴリズムの近似を適用した上で, 未学習および保持サンプルのプライバシーリスクを監査するための総合的アプローチを提案する。
実験結果から、既存の近似機械学習アルゴリズムは、差分プライベートモデルに対する保持サンプルのプライバシーを不注意に損なう可能性があることが示唆された。
- 参考スコア(独自算出の注目度): 14.700807572189412
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Approximate machine unlearning aims to remove the effect of specific data from trained models to ensure individuals' privacy. Existing methods focus on the removed records and assume the retained ones are unaffected. However, recent studies on the \emph{privacy onion effect} indicate this assumption might be incorrect. Especially when the model is differentially private, no study has explored whether the retained ones still meet the differential privacy (DP) criterion under existing machine unlearning methods. This paper takes a holistic approach to auditing both unlearned and retained samples' privacy risks after applying approximate unlearning algorithms. We propose the privacy criteria for unlearned and retained samples, respectively, based on the perspectives of DP and membership inference attacks (MIAs). To make the auditing process more practical, we also develop an efficient MIA, A-LiRA, utilizing data augmentation to reduce the cost of shadow model training. Our experimental findings indicate that existing approximate machine unlearning algorithms may inadvertently compromise the privacy of retained samples for differentially private models, and we need differentially private unlearning algorithms. For reproducibility, we have pubished our code: https://anonymous.4open.science/r/Auditing-machine-unlearning-CB10/README.md
- Abstract(参考訳): Approximate Machine Unlearningは、トレーニングされたモデルから特定のデータの影響を取り除き、個人のプライバシを確保することを目的としている。
既存の方法は削除されたレコードにフォーカスし、保持されているレコードが影響を受けないと仮定する。
しかし、近年の『emph{privacy onion effect』の研究は、この仮定が間違っていることを示唆している。
特に、モデルが微分プライベートである場合、既存のマシンアンラーニング手法による差分プライバシ(DP)基準を満たしているかどうかを調査する研究は行われていない。
本稿では, 学習アルゴリズムを応用した後, 未学習と保持サンプルの両方のプライバシーリスクを監査するために, 総合的なアプローチをとる。
本研究では,DPとMIAの観点に基づいて,未学習サンプルと保持サンプルのプライバシ基準を提案する。
監査プロセスをより実用的なものにするために,データ拡張を利用してシャドウモデルトレーニングのコストを削減する,効率的なMIA,A-LiRAを開発した。
実験結果から、既存の近似機械学習アルゴリズムは、未学習モデルに対する保持サンプルのプライバシーを不注意に侵害する可能性があることが示唆された。
再現性のために、私たちはコードを公開した。 https://anonymous.4open.science/r/Auditing-machine-unlearning-CB10/README.md。
関連論文リスト
- Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - FUNU: Boosting Machine Unlearning Efficiency by Filtering Unnecessary Unlearning [9.472692023087223]
本研究では不必要な未学習につながるデータポイントを同定するFUNUを提案する。
FUNUの理論的解析を行い,その有効性を検証するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-01-28T01:19:07Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Training Private Models That Know What They Don't Know [40.19666295972155]
いくつかの一般的な選択的予測手法は、差分的にプライベートな環境では効果がないことがわかった。
モデルユーティリティレベルを越えた選択予測性能を分離する新しい評価機構を提案する。
論文 参考訳(メタデータ) (2023-05-28T12:20:07Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Fine-Tuning with Differential Privacy Necessitates an Additional
Hyperparameter Search [38.83524780461911]
トレーニング済みニューラルネットワークで微調整されたレイヤを慎重に選択することで、プライバシと正確性の間に新たな最先端のトレードオフを確立することができることを示す。
ImageNetで事前トレーニングされたモデルに対して、CIFAR-100上で$(varepsilon, delta)= (2, 10-5)$に対して77.9%の精度を達成する。
論文 参考訳(メタデータ) (2022-10-05T11:32:49Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。