論文の概要: Machine Unlearning: Taxonomy, Metrics, Applications, Challenges, and
Prospects
- arxiv url: http://arxiv.org/abs/2403.08254v1
- Date: Wed, 13 Mar 2024 05:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:50:11.109106
- Title: Machine Unlearning: Taxonomy, Metrics, Applications, Challenges, and
Prospects
- Title(参考訳): 機械学習 - 分類学、メトリクス、応用、挑戦など
展望
- Authors: Na Li, Chunyi Zhou, Yansong Gao, Hui Chen, Anmin Fu, Zhi Zhang, and Yu
Shui
- Abstract要約: データユーザには、データを忘れる権利が与えられている。
機械学習(ML)の過程で、忘れられた権利は、ユーザーデータを削除するためにモデルプロバイダを必要とする。
機械学習は、業界と学界の両方からますます注目を集めている。
- 参考スコア(独自算出の注目度): 17.502158848870426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personal digital data is a critical asset, and governments worldwide have
enforced laws and regulations to protect data privacy. Data users have been
endowed with the right to be forgotten of their data. In the course of machine
learning (ML), the forgotten right requires a model provider to delete user
data and its subsequent impact on ML models upon user requests. Machine
unlearning emerges to address this, which has garnered ever-increasing
attention from both industry and academia. While the area has developed
rapidly, there is a lack of comprehensive surveys to capture the latest
advancements. Recognizing this shortage, we conduct an extensive exploration to
map the landscape of machine unlearning including the (fine-grained) taxonomy
of unlearning algorithms under centralized and distributed settings, debate on
approximate unlearning, verification and evaluation metrics, challenges and
solutions for unlearning under different applications, as well as attacks
targeting machine unlearning. The survey concludes by outlining potential
directions for future research, hoping to serve as a guide for interested
scholars.
- Abstract(参考訳): 個人デジタルデータは重要な資産であり、世界中の政府はデータのプライバシーを保護するための法律と規則を施行している。
データユーザには、データを忘れる権利が与えられている。
機械学習(ML)の過程で、忘れられた権利は、モデルプロバイダがユーザデータを削除することと、その後のユーザ要求に対するMLモデルへの影響を要求する。
機械学習は、業界と学界の両方からますます注目を集めている。
地域は急速に発展してきたが、最新の進歩を捉えるための総合的な調査が欠如している。
この不足を認識して、我々は、アンラーニングアルゴリズムの(きめ細かい)分類を集中的かつ分散的設定でマッピングする広範囲な調査、近似アンラーニングに関する議論、検証と評価のメトリクス、異なるアプリケーション下でのアンラーニングの課題と解決、さらにはマシンアンラーニングをターゲットにした攻撃などを行います。
この調査は、将来の研究の潜在的な方向性を概説し、興味のある学者のガイドになることを望んでいる。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - Machine Unlearning for Traditional Models and Large Language Models: A Short Survey [11.539080008361662]
機械学習は、データを削除し、ユーザーの要求に応じてモデルへの影響を減らすことを目的としている。
本稿では,従来のモデルとLarge Language Models(LLMs)の両方の非学習を分類し,検討する。
論文 参考訳(メタデータ) (2024-04-01T16:08:18Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy [17.535417441295074]
機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
本稿では,現在の最先端技術とアプローチを網羅したMUの包括的調査を行う。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、リソース制約など、対処すべき課題を強調している。
論文 参考訳(メタデータ) (2023-05-10T12:02:18Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。