論文の概要: Learn to Unlearn: A Survey on Machine Unlearning
- arxiv url: http://arxiv.org/abs/2305.07512v1
- Date: Fri, 12 May 2023 14:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:29:23.950309
- Title: Learn to Unlearn: A Survey on Machine Unlearning
- Title(参考訳): unlearnを学ぶ: 機械学習に関する調査
- Authors: Youyang Qu, Xin Yuan, Ming Ding, Wei Ni, Thierry Rakotoarivelo, David
Smith
- Abstract要約: 機械学習モデルはプライベート情報を含み、忘れられる権利を実装することは、多くのデータアプリケーションで難しいプライバシー問題である。
トレーニングされたモデルからセンシティブなデータを除去する代替手段として、機械学習が登場したが、完全に再トレーニングされたMLモデルは、多くの場合実現不可能である。
このサーベイは、正確で近似的な手法、確率的攻撃、検証アプローチの両方を含む、機械学習テクニックの簡潔な評価を提供する。
- 参考スコア(独自算出の注目度): 33.67250635738213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) models contain private information, and implementing
the right to be forgotten is a challenging privacy issue in many data
applications. Machine unlearning has emerged as an alternative to remove
sensitive data from a trained model, but completely retraining ML models is
often not feasible. This survey provides a concise appraisal of Machine
Unlearning techniques, encompassing both exact and approximate methods,
probable attacks, and verification approaches. The survey compares the merits
and limitations each method and evaluates their performance using the Deltagrad
exact machine unlearning method. The survey also highlights challenges like the
pressing need for a robust model for non-IID deletion to mitigate fairness
issues. Overall, the survey provides a thorough synopsis of machine unlearning
techniques and applications, noting future research directions in this evolving
field. The survey aims to be a valuable resource for researchers and
practitioners seeking to provide privacy and equity in ML systems.
- Abstract(参考訳): 機械学習(ML)モデルはプライベート情報を含み、忘れられる権利を実装することは、多くのデータアプリケーションにおいて難しいプライバシー問題である。
トレーニングされたモデルからセンシティブなデータを除去する代替手段として機械学習が登場したが、完全に再トレーニングされたMLモデルは実現不可能なことが多い。
この調査は、正確な方法と近似方法、可能性攻撃、検証アプローチの両方を含む、機械学習技術の簡潔な評価を提供する。
この調査は、各メソッドのメリットと制限を比較し、deltagrad exact machine unlearning法を用いたパフォーマンス評価を行う。
この調査はまた、公平な問題を緩和するために非iid削除のための堅牢なモデルの必要性の高まりのような課題も強調している。
全体として、この調査は機械学習技術とアプリケーションの完全なシナプスを提供し、この進化する分野における今後の研究の方向性を指摘している。
この調査は、MLシステムにおけるプライバシとエクイティの提供を目指す研究者や実践者にとって、貴重なリソースになることを目指している。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Learn What You Want to Unlearn: Unlearning Inversion Attacks against Machine Unlearning [16.809644622465086]
我々は、機械学習が未学習データの機密内容を漏洩させる範囲を理解するために、最初の調査を行う。
機械学習・アズ・ア・サービス・セッティングの下で、未学習サンプルの特徴とラベル情報を明らかにするアンラーニング・インバージョン・アタックを提案する。
実験結果から,提案攻撃は未学習データのセンシティブな情報を明らかにすることができることが示された。
論文 参考訳(メタデータ) (2024-04-04T06:37:46Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。