論文の概要: Zero-Shot Machine Unlearning
- arxiv url: http://arxiv.org/abs/2201.05629v1
- Date: Fri, 14 Jan 2022 19:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:42:09.475053
- Title: Zero-Shot Machine Unlearning
- Title(参考訳): ゼロショットマシンアンラーニング
- Authors: Vikram S Chundawat, Ayush K Tarun, Murari Mandal, Mohan Kankanhalli
- Abstract要約: 機械学習(ML)アプリケーションに必要な規制コンプライアンスの必要性が高まっているため、機械学習は新たな研究課題になりつつある。
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
- 参考スコア(独自算出の注目度): 6.884272840652062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the introduction of new privacy regulations, machine unlearning is
becoming an emerging research problem due to an increasing need for regulatory
compliance required for machine learning (ML) applications. Modern privacy
regulations grant citizens the right to be forgotten by products, services and
companies. This necessitates deletion of data not only from storage archives
but also from ML model. The right to be forgotten requests come in the form of
removal of a certain set or class of data from the already trained ML model.
Practical considerations preclude retraining of the model from scratch minus
the deleted data. The few existing studies use the whole training data, or a
subset of training data, or some metadata stored during training to update the
model weights for unlearning. However, strict regulatory compliance requires
time-bound deletion of data. Thus, in many cases, no data related to the
training process or training samples may be accessible even for the unlearning
purpose. We therefore ask the question: is it possible to achieve unlearning
with zero training samples? In this paper, we introduce the novel problem of
zero-shot machine unlearning that caters for the extreme but practical scenario
where zero original data samples are available for use. We then propose two
novel solutions for zero-shot machine unlearning based on (a) error
minimizing-maximizing noise and (b) gated knowledge transfer. We also introduce
a new evaluation metric, Anamnesis Index (AIN) to effectively measure the
quality of the unlearning method. The experiments show promising results for
unlearning in deep learning models on benchmark vision data-sets. The source
code will be made publicly available.
- Abstract(参考訳): 機械学習(ML)アプリケーションに必要な規制コンプライアンスの必要性が高まっているため、新しいプライバシ規則の導入により、機械学習は新たな研究課題になりつつある。
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
これはストレージアーカイブからだけでなく、MLモデルからもデータを削除する必要がある。
忘れられる権利は、すでに訓練済みのMLモデルから特定のセットまたはクラスのデータを削除する形で与えられる。
実際の考慮事項は、削除されたデータのスクラッチからモデルの再トレーニングを妨げる。
既存の研究では、トレーニングデータ全体、トレーニングデータのサブセット、トレーニング中に保存されたメタデータを使用して、アンラーニングのためのモデルの重み付けを更新する。
しかし、厳格な規制順守には、データのタイムバウンド削除が必要である。
したがって、多くの場合、未学習目的であっても、トレーニングプロセスやトレーニングサンプルに関するデータにアクセスできない。
ですから私たちは,トレーニングサンプルをゼロにすることで,アンラーニングを達成できますか?
本稿では,ゼロ・ショット・マシン・アンラーニング(ゼロ・ショット・マシン・アンラーニング)という,ゼロ・オリジナル・データ・サンプルが利用できる極端に実用的なシナリオを提案する。
次にゼロショットマシンアンラーニングのための2つの新しい解法を提案する。
(a)誤差最小化・最大化ノイズ、及び
(b)強制的な知識移転
また,新しい評価指標である anamnesis index (ain) を導入し,アンラーニング手法の品質を効果的に測定する。
この実験は、ベンチマークビジョンデータセット上でのディープラーニングモデルの学習を未学習にするための有望な結果を示す。
ソースコードは一般公開される予定だ。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Deep Regression Unlearning [6.884272840652062]
我々は、プライバシー攻撃に対して堅牢な、一般化された深層回帰学習手法を導入する。
我々は、コンピュータビジョン、自然言語処理、予測アプリケーションのための回帰学習実験を行う。
論文 参考訳(メタデータ) (2022-10-15T05:00:20Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Supervised Machine Learning with Plausible Deniability [1.685485565763117]
機械学習(ML)モデルが、特定のデータセットでトレーニングされたモデルが、トレーニングデータに対してどの程度のプライバシを提供するか、という問題について検討する。
我々は、純粋にランダムなトレーニングデータの集合を取ることができ、そこから、ちょうど$f$のMLモデルを生成する'適切な学習ルール'を定義することができることを示す。
論文 参考訳(メタデータ) (2021-06-08T11:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。