論文の概要: Learn to Unlearn: A Survey on Machine Unlearning
- arxiv url: http://arxiv.org/abs/2305.07512v2
- Date: Thu, 26 Oct 2023 23:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 18:18:56.159716
- Title: Learn to Unlearn: A Survey on Machine Unlearning
- Title(参考訳): unlearnを学ぶ: 機械学習に関する調査
- Authors: Youyang Qu, Xin Yuan, Ming Ding, Wei Ni, Thierry Rakotoarivelo, David
Smith
- Abstract要約: 本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
- 参考スコア(独自算出の注目度): 29.077334665555316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) models have been shown to potentially leak sensitive
information, thus raising privacy concerns in ML-driven applications. This
inspired recent research on removing the influence of specific data samples
from a trained ML model. Such efficient removal would enable ML to comply with
the "right to be forgotten" in many legislation, and could also address
performance bottlenecks from low-quality or poisonous samples. In that context,
machine unlearning methods have been proposed to erase the contributions of
designated data samples on models, as an alternative to the often impracticable
approach of retraining models from scratch. This article presents a
comprehensive review of recent machine unlearning techniques, verification
mechanisms, and potential attacks. We further highlight emerging challenges and
prospective research directions (e.g. resilience and fairness concerns). We aim
for this paper to provide valuable resources for integrating privacy, equity,
andresilience into ML systems and help them "learn to unlearn".
- Abstract(参考訳): 機械学習(ML)モデルは、機密情報を潜在的に漏洩させることで、ML駆動アプリケーションにおけるプライバシー上の懸念を引き起こすことが示されている。
このことは、訓練されたMLモデルから特定のデータサンプルの影響を取り除くという最近の研究に影響を与えた。
このような効率的な除去により、MLは多くの法律で「忘れられる権利」に従うことができ、低品質または有毒なサンプルのパフォーマンスボトルネックにも対処できる。
この文脈では、モデルをスクラッチから再トレーニングするしばしば不可能になるアプローチの代替として、モデルに指定されたデータサンプルの寄与を消去する機械学習手法が提案されている。
本稿では,最近の機械学習技術,検証機構,潜在的な攻撃について概観する。
新たな課題と今後の研究の方向性(レジリエンスや公正性の懸念など)をさらに強調する。
本論文は,MLシステムにプライバシ,エクイティ,レジリエンスを統合する上で貴重なリソースを提供することを目標としている。
関連論文リスト
- Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - A Survey of Machine Unlearning [43.272767023563254]
近年の規制では、ユーザに関する個人情報は一般にコンピュータシステムから、特に要求に応じてMLモデルから削除することが要求されている。
この現象は、機械学習モデルを特定のデータを忘れるようにするための新しいパラダイム、すなわち機械学習を求めている。
我々は、マシンアンラーニングの定義、シナリオ、メカニズム、アプリケーションについて、徹底的に調査することを目指している。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。