論文の概要: Forget Unlearning: Towards True Data-Deletion in Machine Learning
- arxiv url: http://arxiv.org/abs/2210.08911v1
- Date: Mon, 17 Oct 2022 10:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:05:40.884214
- Title: Forget Unlearning: Towards True Data-Deletion in Machine Learning
- Title(参考訳): Forget Unlearning: マシンラーニングにおける真のデータ削除に向けて
- Authors: Rishav Chourasia, Neil Shah, Reza Shokri
- Abstract要約: アンラーニングはデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
本稿では,オンライン環境での精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.656957502454592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlearning has emerged as a technique to efficiently erase information of
deleted records from learned models. We show, however, that the influence
created by the original presence of a data point in the training set can still
be detected after running certified unlearning algorithms (which can result in
its reconstruction by an adversary). Thus, under realistic assumptions about
the dynamics of model releases over time and in the presence of adaptive
adversaries, we show that unlearning is not equivalent to data deletion and
does not guarantee the "right to be forgotten." We then propose a more robust
data-deletion guarantee and show that it is necessary to satisfy differential
privacy to ensure true data deletion. Under our notion, we propose an accurate,
computationally efficient, and secure data-deletion machine learning algorithm
in the online setting based on noisy gradient descent algorithm.
- Abstract(参考訳): 学習モデルから削除されたレコードの情報を削除する手法として、アンラーニングが登場した。
しかし、トレーニングセットにおけるデータポイントの元々の存在によって生じた影響は、認定アンラーニングアルゴリズムの実行後にも検出できる(その結果、敵によって再構築される可能性がある)。
したがって、時間とともにモデルリリースのダイナミクスや適応的敵が存在するという現実的な仮定の下で、未学習はデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
次に、より堅牢なデータ削除保証を提案し、真のデータ削除を保証するために差分プライバシーを満たす必要があることを示す。
そこで本研究では,オンライン環境において,ノイズ勾配降下アルゴリズムに基づく高精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - An Information Theoretic Approach to Machine Unlearning [45.600917449314444]
学びの鍵となる課題は、モデルのパフォーマンスを保ちながら、必要なデータをタイムリーに忘れることである。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。