論文の概要: A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks
- arxiv url: http://arxiv.org/abs/2406.06186v1
- Date: Mon, 10 Jun 2024 11:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 14:17:29.189105
- Title: A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks
- Title(参考訳): 機械学習に関する調査 : 技術と新たなプライバシリスク
- Authors: Hengzhu Liu, Ping Xiong, Tianqing Zhu, Philip S. Yu,
- Abstract要約: 機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
- 参考スコア(独自算出の注目度): 42.3024294376025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explosive growth of machine learning has made it a critical infrastructure in the era of artificial intelligence. The extensive use of data poses a significant threat to individual privacy. Various countries have implemented corresponding laws, such as GDPR, to protect individuals' data privacy and the right to be forgotten. This has made machine unlearning a research hotspot in the field of privacy protection in recent years, with the aim of efficiently removing the contribution and impact of individual data from trained models. The research in academia on machine unlearning has continuously enriched its theoretical foundation, and many methods have been proposed, targeting different data removal requests in various application scenarios. However, recently researchers have found potential privacy leakages of various of machine unlearning approaches, making the privacy preservation on machine unlearning area a critical topic. This paper provides an overview and analysis of the existing research on machine unlearning, aiming to present the current vulnerabilities of machine unlearning approaches. We analyze privacy risks in various aspects, including definitions, implementation methods, and real-world applications. Compared to existing reviews, we analyze the new challenges posed by the latest malicious attack techniques on machine unlearning from the perspective of privacy threats. We hope that this survey can provide an initial but comprehensive discussion on this new emerging area.
- Abstract(参考訳): 機械学習の爆発的な成長は、人工知能の時代における重要な基盤となった。
データの広範な使用は、個人のプライバシに重大な脅威をもたらす。
GDPRなどの各国は、個人のデータのプライバシーと忘れられる権利を保護するために、対応する法律を施行している。
これにより、機械学習は近年、プライバシー保護分野における研究ホットスポットとなり、トレーニングされたモデルから個々のデータの貢献と影響を効率的に除去することを目指している。
機械学習に関する学術研究は、その理論基盤を継続的に強化し、様々なアプリケーションシナリオで異なるデータ削除要求をターゲットとする多くの手法が提案されている。
しかし、近年の研究者たちは、機械学習のさまざまなアプローチの潜在的なプライバシー漏洩を発見し、機械学習の領域におけるプライバシー保護が重要なトピックとなっている。
本稿では,機械学習アプローチの現在の脆弱性を示すことを目的とした,機械学習に関する既存の研究の概要と分析を行う。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
既存のレビューと比較して、プライバシの脅威の観点から、マシンアンラーニングにおける最新の悪意ある攻撃テクニックによって引き起こされる新たな課題を分析します。
この調査が、この新しい新興分野について、初期的だが包括的な議論を提供できることを願っている。
関連論文リスト
- Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - When Machine Learning Meets Privacy: A Survey and Outlook [22.958274878097683]
プライバシーは、この機械学習ベースの人工知能時代において大きな関心事となっている。
プライバシと機械学習(ML)の保存に関する作業はまだ初期段階にある。
本稿では、プライバシ問題における最先端技術と機械学習ソリューションについて調査する。
論文 参考訳(メタデータ) (2020-11-24T00:52:49Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - A Survey of Privacy Attacks in Machine Learning [0.7614628596146599]
この研究は、機械学習に対するプライバシー攻撃に関連する40以上の論文の分析である。
プライバシリークの原因についての最初の調査と、異なる攻撃の詳細な分析が紹介されている。
本稿では,最も一般的に提案されている防衛の概観と,分析において確認されたオープンな問題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-07-15T12:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。