論文の概要: Learn to Unlearn: A Survey on Machine Unlearning
- arxiv url: http://arxiv.org/abs/2305.07512v2
- Date: Thu, 26 Oct 2023 23:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 18:18:56.159716
- Title: Learn to Unlearn: A Survey on Machine Unlearning
- Title(参考訳): unlearnを学ぶ: 機械学習に関する調査
- Authors: Youyang Qu, Xin Yuan, Ming Ding, Wei Ni, Thierry Rakotoarivelo, David
Smith
- Abstract要約: 本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
- 参考スコア(独自算出の注目度): 29.077334665555316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) models have been shown to potentially leak sensitive
information, thus raising privacy concerns in ML-driven applications. This
inspired recent research on removing the influence of specific data samples
from a trained ML model. Such efficient removal would enable ML to comply with
the "right to be forgotten" in many legislation, and could also address
performance bottlenecks from low-quality or poisonous samples. In that context,
machine unlearning methods have been proposed to erase the contributions of
designated data samples on models, as an alternative to the often impracticable
approach of retraining models from scratch. This article presents a
comprehensive review of recent machine unlearning techniques, verification
mechanisms, and potential attacks. We further highlight emerging challenges and
prospective research directions (e.g. resilience and fairness concerns). We aim
for this paper to provide valuable resources for integrating privacy, equity,
andresilience into ML systems and help them "learn to unlearn".
- Abstract(参考訳): 機械学習(ML)モデルは、機密情報を潜在的に漏洩させることで、ML駆動アプリケーションにおけるプライバシー上の懸念を引き起こすことが示されている。
このことは、訓練されたMLモデルから特定のデータサンプルの影響を取り除くという最近の研究に影響を与えた。
このような効率的な除去により、MLは多くの法律で「忘れられる権利」に従うことができ、低品質または有毒なサンプルのパフォーマンスボトルネックにも対処できる。
この文脈では、モデルをスクラッチから再トレーニングするしばしば不可能になるアプローチの代替として、モデルに指定されたデータサンプルの寄与を消去する機械学習手法が提案されている。
本稿では,最近の機械学習技術,検証機構,潜在的な攻撃について概観する。
新たな課題と今後の研究の方向性(レジリエンスや公正性の懸念など)をさらに強調する。
本論文は,MLシステムにプライバシ,エクイティ,レジリエンスを統合する上で貴重なリソースを提供することを目標としている。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Learn What You Want to Unlearn: Unlearning Inversion Attacks against Machine Unlearning [16.809644622465086]
我々は、機械学習が未学習データの機密内容を漏洩させる範囲を理解するために、最初の調査を行う。
機械学習・アズ・ア・サービス・セッティングの下で、未学習サンプルの特徴とラベル情報を明らかにするアンラーニング・インバージョン・アタックを提案する。
実験結果から,提案攻撃は未学習データのセンシティブな情報を明らかにすることができることが示された。
論文 参考訳(メタデータ) (2024-04-04T06:37:46Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。