論文の概要: Certified Unlearning for Neural Networks
- arxiv url: http://arxiv.org/abs/2506.06985v2
- Date: Tue, 10 Jun 2025 19:29:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 23:41:16.721692
- Title: Certified Unlearning for Neural Networks
- Title(参考訳): ニューラルネットワークの認定アンラーニング
- Authors: Anastasia Koloskova, Youssef Allouah, Animesh Jha, Rachid Guerraoui, Sanmi Koyejo,
- Abstract要約: そこでは,モデルから特定のトレーニングデータの影響を取り除くことを目的として,機械学習の課題に対処する。
既存の方法は制限的な仮定に依存したり、正式な保証を欠いている。
後処理による非学習とプライバシ増幅の関連性を活用して、認定された非学習のための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 21.312771223437966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of machine unlearning, where the goal is to remove the influence of specific training data from a model upon request, motivated by privacy concerns and regulatory requirements such as the "right to be forgotten." Unfortunately, existing methods rely on restrictive assumptions or lack formal guarantees. To this end, we propose a novel method for certified machine unlearning, leveraging the connection between unlearning and privacy amplification by stochastic post-processing. Our method uses noisy fine-tuning on the retain data, i.e., data that does not need to be removed, to ensure provable unlearning guarantees. This approach requires no assumptions about the underlying loss function, making it broadly applicable across diverse settings. We analyze the theoretical trade-offs in efficiency and accuracy and demonstrate empirically that our method not only achieves formal unlearning guarantees but also performs effectively in practice, outperforming existing baselines. Our code is available at https://github.com/stair-lab/certified-unlearning-neural-networks-icml-2025
- Abstract(参考訳): そこでは、プライバシの懸念や“忘れられる権利”といった規制要件に動機づけられた、特定のトレーニングデータの影響を、要求時にモデルから排除することを目的としている。
残念ながら、既存のメソッドは制限的な仮定に依存したり、正式な保証を欠いている。
そこで本研究では,確率的ポストプロセッシングによる非学習とプライバシ増幅の関連性を生かした,認定機械アンラーニングの新しい手法を提案する。
提案手法では,保持データ,すなわち削除する必要のないデータをノイズの多い微調整を用いて,証明不可能な未学習保証を保証している。
このアプローチでは、基盤となる損失関数に関する仮定は必要とせず、多様な設定で広く適用できる。
我々は,理論的なトレードオフを効率と精度で分析し,本手法が正規の未学習保証を達成するだけでなく,実践的にも効果的に実行できることを実証的に証明し,既存のベースラインを上回ります。
私たちのコードはhttps://github.com/stair-lab/certified-unlearning-neural-networks-icml-2025で利用可能です。
関連論文リスト
- ACU: Analytic Continual Unlearning for Efficient and Exact Forgetting with Privacy Preservation [39.0731790601695]
連続的アンラーニング(CU)は、連続的学習フェーズで取得した特定の知識を逐次忘れることを目的としている。
既存の未学習メソッドの多くは、再トレーニングや微調整のために保持されたデータセットにアクセスする必要がある。
本稿では,ACU (Analytic Continual Unlearning) と呼ばれるCUの勾配のない新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-18T05:28:18Z) - An Information Theoretic Approach to Machine Unlearning [43.423418819707784]
AIやデータ規則に従うためには、トレーニングされた機械学習モデルからプライベートまたは著作権のある情報を忘れる必要性がますます高まっている。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。