論文の概要: Forget Unlearning: Towards True Data-Deletion in Machine Learning
- arxiv url: http://arxiv.org/abs/2210.08911v1
- Date: Mon, 17 Oct 2022 10:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:05:40.884214
- Title: Forget Unlearning: Towards True Data-Deletion in Machine Learning
- Title(参考訳): Forget Unlearning: マシンラーニングにおける真のデータ削除に向けて
- Authors: Rishav Chourasia, Neil Shah, Reza Shokri
- Abstract要約: アンラーニングはデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
本稿では,オンライン環境での精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.656957502454592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlearning has emerged as a technique to efficiently erase information of
deleted records from learned models. We show, however, that the influence
created by the original presence of a data point in the training set can still
be detected after running certified unlearning algorithms (which can result in
its reconstruction by an adversary). Thus, under realistic assumptions about
the dynamics of model releases over time and in the presence of adaptive
adversaries, we show that unlearning is not equivalent to data deletion and
does not guarantee the "right to be forgotten." We then propose a more robust
data-deletion guarantee and show that it is necessary to satisfy differential
privacy to ensure true data deletion. Under our notion, we propose an accurate,
computationally efficient, and secure data-deletion machine learning algorithm
in the online setting based on noisy gradient descent algorithm.
- Abstract(参考訳): 学習モデルから削除されたレコードの情報を削除する手法として、アンラーニングが登場した。
しかし、トレーニングセットにおけるデータポイントの元々の存在によって生じた影響は、認定アンラーニングアルゴリズムの実行後にも検出できる(その結果、敵によって再構築される可能性がある)。
したがって、時間とともにモデルリリースのダイナミクスや適応的敵が存在するという現実的な仮定の下で、未学習はデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
次に、より堅牢なデータ削除保証を提案し、真のデータ削除を保証するために差分プライバシーを満たす必要があることを示す。
そこで本研究では,オンライン環境において,ノイズ勾配降下アルゴリズムに基づく高精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
関連論文リスト
- Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Zero-Shot Machine Unlearning at Scale via Lipschitz Regularization [43.81291569160508]
学びの鍵となる課題は、モデルのパフォーマンスを保ちながら、必要なデータをタイムリーに忘れることである。
本稿では, サンプルの摂動に関して, サンプル出力の平滑化を誘導する手法を提案する。
このスムーズな結果が,一般的なモデル性能を維持しつつ,忘れることに成功していることを示す。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。