論文の概要: Rectifying Privacy and Efficacy Measurements in Machine Unlearning: A New Inference Attack Perspective
- arxiv url: http://arxiv.org/abs/2506.13009v1
- Date: Mon, 16 Jun 2025 00:30:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.286663
- Title: Rectifying Privacy and Efficacy Measurements in Machine Unlearning: A New Inference Attack Perspective
- Title(参考訳): 機械学習におけるプライバシと効率の測定の明確化:新しい推論攻撃の視点から
- Authors: Nima Naderloui, Shenao Yan, Binghui Wang, Jie Fu, Wendy Hui Wang, Weiran Liu, Yuan Hong,
- Abstract要約: 本稿では,不正確な未学習手法の評価において重要なギャップに対処するため,RULI (Rectified Unlearning Evaluation Framework via Likelihood Inference)を提案する。
RULIは、未学習の有効性とプライバシリスクをサンプルごとの粒度で測定するために、二重目的攻撃を導入している。
既存の手法で過小評価されているプライバシーリスクを暴露し,最先端のアンラーニング手法の重大な脆弱性を明らかにした。
- 参考スコア(独自算出の注目度): 42.003102851493885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning focuses on efficiently removing specific data from trained models, addressing privacy and compliance concerns with reasonable costs. Although exact unlearning ensures complete data removal equivalent to retraining, it is impractical for large-scale models, leading to growing interest in inexact unlearning methods. However, the lack of formal guarantees in these methods necessitates the need for robust evaluation frameworks to assess their privacy and effectiveness. In this work, we first identify several key pitfalls of the existing unlearning evaluation frameworks, e.g., focusing on average-case evaluation or targeting random samples for evaluation, incomplete comparisons with the retraining baseline. Then, we propose RULI (Rectified Unlearning Evaluation Framework via Likelihood Inference), a novel framework to address critical gaps in the evaluation of inexact unlearning methods. RULI introduces a dual-objective attack to measure both unlearning efficacy and privacy risks at a per-sample granularity. Our findings reveal significant vulnerabilities in state-of-the-art unlearning methods, where RULI achieves higher attack success rates, exposing privacy risks underestimated by existing methods. Built on a game-based foundation and validated through empirical evaluations on both image and text data (spanning tasks from classification to generation), RULI provides a rigorous, scalable, and fine-grained methodology for evaluating unlearning techniques.
- Abstract(参考訳): 機械学習は、訓練されたモデルから特定のデータを効率的に取り除き、適切なコストでプライバシとコンプライアンスの問題に対処することに焦点を当てる。
正確なアンラーニングは、再トレーニングと同等の完全なデータ削除を保証するが、大規模なモデルでは実用的ではないため、不正確なアンラーニング手法への関心が高まっている。
しかし,これらの手法には正式な保証がないため,プライバシーと有効性を評価するための堅牢な評価フレームワークが必要である。
本研究では,まず,既存の未学習評価フレームワークのいくつかの重要な落とし穴,例えば,評価のための平均ケース評価やランダムサンプルのターゲット化に着目し,再学習ベースラインとの不完全な比較を行う。
そして,不正確な未学習手法の評価において重要なギャップに対処する新しいフレームワークであるRULI(Rectified Unlearning Evaluation Framework via Likelihood Inference)を提案する。
RULIは、未学習の有効性とプライバシリスクをサンプルごとの粒度で測定するために、二重目的攻撃を導入している。
その結果、RULIは攻撃の成功率を高め、既存の手法で過小評価されているプライバシーリスクを露呈する、最先端の未学習手法の重大な脆弱性が明らかとなった。
ゲームベースの基盤上に構築され、画像データとテキストデータ(分類から生成までのタスク)の実証的な評価によって検証されるRULIは、未学習のテクニックを評価するための厳密でスケーラブルできめ細かな方法論を提供する。
関連論文リスト
- OpenUnlearning: Accelerating LLM Unlearning via Unified Benchmarking of Methods and Metrics [101.78963920333342]
我々は,大規模言語モデル(LLM)のアンラーニング手法とメトリクスをベンチマークするための標準フレームワークであるOpenUnlearningを紹介する。
OpenUnlearningは、9つのアンラーニングアルゴリズムと16のさまざまな評価を3つの主要なベンチマークで統合する。
また、多様なアンラーニング手法をベンチマークし、広範囲な評価スイートとの比較分析を行う。
論文 参考訳(メタデータ) (2025-06-14T20:16:37Z) - MUBox: A Critical Evaluation Framework of Deep Machine Unlearning [13.186439491394474]
MUBoxは、ディープラーニングにおける未学習の手法を評価するために設計された総合的なプラットフォームである。
MUBoxは23の高度なアンラーニング技術を統合し、11の多様な評価指標で6つの実践シナリオでテストされている。
論文 参考訳(メタデータ) (2025-05-13T13:50:51Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Towards Reliable Empirical Machine Unlearning Evaluation: A Cryptographic Game Perspective [5.724350004671127]
機械学習は機械学習モデルを更新し、データ保護規則に従って、特定のトレーニングサンプルから情報を削除する。
近年、多くの未学習アルゴリズムが開発されているにもかかわらず、これらのアルゴリズムの信頼性評価は依然としてオープンな研究課題である。
この研究は、非学習アルゴリズムを実証的に評価するための、新しく信頼性の高いアプローチを示し、より効果的な非学習技術を開発するための道を開いた。
論文 参考訳(メタデータ) (2024-04-17T17:20:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。