論文の概要: Towards Source-Free Machine Unlearning
- arxiv url: http://arxiv.org/abs/2508.15127v1
- Date: Wed, 20 Aug 2025 23:29:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.127317
- Title: Towards Source-Free Machine Unlearning
- Title(参考訳): オープンソース・フリー・マシン・アンラーニングを目指して
- Authors: Sk Miraj Ahmed, Umit Yigit Basaran, Dripta S. Raychaudhuri, Arindam Dutta, Rohit Kundu, Fahim Faisal Niloy, Basak Guler, Amit K. Roy-Chowdhury,
- Abstract要約: 本稿では,学習を効率化するために重要な要素である未知のトレーニングデータのヘシアンを推定する手法を提案する。
提案手法は,ゼロショット・アンラーニングを効果的に行うとともに,アンラーニング性能に関する理論的確証を提供する。
- 参考スコア(独自算出の注目度): 21.529753312940276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning becomes more pervasive and data privacy regulations evolve, the ability to remove private or copyrighted information from trained models is becoming an increasingly critical requirement. Existing unlearning methods often rely on the assumption of having access to the entire training dataset during the forgetting process. However, this assumption may not hold true in practical scenarios where the original training data may not be accessible, i.e., the source-free setting. To address this challenge, we focus on the source-free unlearning scenario, where an unlearning algorithm must be capable of removing specific data from a trained model without requiring access to the original training dataset. Building on recent work, we present a method that can estimate the Hessian of the unknown remaining training data, a crucial component required for efficient unlearning. Leveraging this estimation technique, our method enables efficient zero-shot unlearning while providing robust theoretical guarantees on the unlearning performance, while maintaining performance on the remaining data. Extensive experiments over a wide range of datasets verify the efficacy of our method.
- Abstract(参考訳): 機械学習が普及し、データプライバシの規制が進化するにつれ、トレーニングされたモデルからプライベートまたは著作権のある情報を削除できることが、ますます重要な要件になりつつある。
既存の未学習のメソッドは、忘れるプロセス中にトレーニングデータセット全体にアクセスするという仮定に依存することが多い。
しかし、この仮定は、元のトレーニングデータがアクセスできない、すなわちソースフリーな設定の実践的なシナリオでは当てはまらないかもしれない。
この課題に対処するために、未学習アルゴリズムは、元のトレーニングデータセットにアクセスする必要なしに、トレーニングされたモデルから特定のデータを削除できなければならない、ソースフリーの未学習シナリオに焦点を当てる。
近年の成果に基づいて,学習の効率化に必須となる未知のトレーニングデータのヘシアンを推定する手法を提案する。
提案手法は,提案手法を応用し,ゼロショットアンラーニングを効率よく行うとともに,未学習データの性能を保ちながら,アンラーニング性能に対する堅牢な理論的保証を提供する。
幅広いデータセットに対する大規模な実験により,本手法の有効性が検証された。
関連論文リスト
- A Certified Unlearning Approach without Access to Source Data [4.585544474674649]
有効なデータ除去を実現するための認定アンラーニングフレームワークを提案する。
提案手法では,ソースデータの統計特性を近似したサロゲートデータセットを用いる。
その結果,プライバシに敏感な設定におけるアプローチの有効性と信頼性が示された。
論文 参考訳(メタデータ) (2025-06-06T19:22:47Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Zero-shot Class Unlearning via Layer-wise Relevance Analysis and Neuronal Path Perturbation [10.901970907686245]
機械学習は、大規模な再トレーニングを必要とせずに、トレーニングされたモデルから特定のデータの影響を取り除くテクニックである。
本稿では,階層的関連分析と神経経路摂動を用いた機械学習の新しい手法を提案する。
本手法は,高関連ニューロンを同定・摂動することで,機械学習性能とモデルの有用性のバランスをとる。
論文 参考訳(メタデータ) (2024-10-31T07:37:04Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Forget Unlearning: Towards True Data-Deletion in Machine Learning [18.656957502454592]
アンラーニングはデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
本稿では,オンライン環境での精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-17T10:06:11Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。