論文の概要: Learn to Unlearn: A Survey on Machine Unlearning
- arxiv url: http://arxiv.org/abs/2305.07512v1
- Date: Fri, 12 May 2023 14:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:29:23.950309
- Title: Learn to Unlearn: A Survey on Machine Unlearning
- Title(参考訳): unlearnを学ぶ: 機械学習に関する調査
- Authors: Youyang Qu, Xin Yuan, Ming Ding, Wei Ni, Thierry Rakotoarivelo, David
Smith
- Abstract要約: 機械学習モデルはプライベート情報を含み、忘れられる権利を実装することは、多くのデータアプリケーションで難しいプライバシー問題である。
トレーニングされたモデルからセンシティブなデータを除去する代替手段として、機械学習が登場したが、完全に再トレーニングされたMLモデルは、多くの場合実現不可能である。
このサーベイは、正確で近似的な手法、確率的攻撃、検証アプローチの両方を含む、機械学習テクニックの簡潔な評価を提供する。
- 参考スコア(独自算出の注目度): 33.67250635738213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) models contain private information, and implementing
the right to be forgotten is a challenging privacy issue in many data
applications. Machine unlearning has emerged as an alternative to remove
sensitive data from a trained model, but completely retraining ML models is
often not feasible. This survey provides a concise appraisal of Machine
Unlearning techniques, encompassing both exact and approximate methods,
probable attacks, and verification approaches. The survey compares the merits
and limitations each method and evaluates their performance using the Deltagrad
exact machine unlearning method. The survey also highlights challenges like the
pressing need for a robust model for non-IID deletion to mitigate fairness
issues. Overall, the survey provides a thorough synopsis of machine unlearning
techniques and applications, noting future research directions in this evolving
field. The survey aims to be a valuable resource for researchers and
practitioners seeking to provide privacy and equity in ML systems.
- Abstract(参考訳): 機械学習(ML)モデルはプライベート情報を含み、忘れられる権利を実装することは、多くのデータアプリケーションにおいて難しいプライバシー問題である。
トレーニングされたモデルからセンシティブなデータを除去する代替手段として機械学習が登場したが、完全に再トレーニングされたMLモデルは実現不可能なことが多い。
この調査は、正確な方法と近似方法、可能性攻撃、検証アプローチの両方を含む、機械学習技術の簡潔な評価を提供する。
この調査は、各メソッドのメリットと制限を比較し、deltagrad exact machine unlearning法を用いたパフォーマンス評価を行う。
この調査はまた、公平な問題を緩和するために非iid削除のための堅牢なモデルの必要性の高まりのような課題も強調している。
全体として、この調査は機械学習技術とアプリケーションの完全なシナプスを提供し、この進化する分野における今後の研究の方向性を指摘している。
この調査は、MLシステムにおけるプライバシとエクイティの提供を目指す研究者や実践者にとって、貴重なリソースになることを目指している。
関連論文リスト
- Learn What You Want to Unlearn: Unlearning Inversion Attacks against Machine Unlearning [16.809644622465086]
我々は、機械学習が未学習データの機密内容を漏洩させる範囲を理解するために、最初の調査を行う。
機械学習・アズ・ア・サービス・セッティングの下で、未学習サンプルの特徴とラベル情報を明らかにするアンラーニング・インバージョン・アタックを提案する。
実験結果から,提案攻撃は未学習データのセンシティブな情報を明らかにすることができることが示された。
論文 参考訳(メタデータ) (2024-04-04T06:37:46Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - A Survey of Machine Unlearning [43.272767023563254]
近年の規制では、ユーザに関する個人情報は一般にコンピュータシステムから、特に要求に応じてMLモデルから削除することが要求されている。
この現象は、機械学習モデルを特定のデータを忘れるようにするための新しいパラダイム、すなわち機械学習を求めている。
我々は、マシンアンラーニングの定義、シナリオ、メカニズム、アプリケーションについて、徹底的に調査することを目指している。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。