論文の概要: A Survey of Machine Unlearning
- arxiv url: http://arxiv.org/abs/2209.02299v1
- Date: Tue, 6 Sep 2022 08:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:50:50.281792
- Title: A Survey of Machine Unlearning
- Title(参考訳): 機械学習に関する調査
- Authors: Thanh Tam Nguyen and Thanh Trung Huynh and Phi Le Nguyen and Alan
Wee-Chung Liew and Hongzhi Yin and Quoc Viet Hung Nguyen
- Abstract要約: 近年の規制では、ユーザに関する個人情報は一般にコンピュータシステムから、特に要求に応じてMLモデルから削除することが要求されている。
この現象は、機械学習モデルを特定のデータを忘れるようにするための新しいパラダイム、すなわち機械学習を求めている。
我々は、マシンアンラーニングの定義、シナリオ、メカニズム、アプリケーションについて、徹底的に調査することを目指している。
- 参考スコア(独自算出の注目度): 45.85250857047022
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computer systems hold a large amount of personal data over decades. On the
one hand, such data abundance allows breakthroughs in artificial intelligence
(AI), especially machine learning (ML) models. On the other hand, it can
threaten the privacy of users and weaken the trust between humans and AI.
Recent regulations require that private information about a user can be removed
from computer systems in general and from ML models in particular upon request
(e.g. the "right to be forgotten"). While removing data from back-end databases
should be straightforward, it is not sufficient in the AI context as ML models
often "remember" the old data. Existing adversarial attacks proved that we can
learn private membership or attributes of the training data from the trained
models. This phenomenon calls for a new paradigm, namely machine unlearning, to
make ML models forget about particular data. It turns out that recent works on
machine unlearning have not been able to solve the problem completely due to
the lack of common frameworks and resources. In this survey paper, we seek to
provide a thorough investigation of machine unlearning in its definitions,
scenarios, mechanisms, and applications. Specifically, as a categorical
collection of state-of-the-art research, we hope to provide a broad reference
for those seeking a primer on machine unlearning and its various formulations,
design requirements, removal requests, algorithms, and uses in a variety of ML
applications. Furthermore, we hope to outline key findings and trends in the
paradigm as well as highlight new areas of research that have yet to see the
application of machine unlearning, but could nonetheless benefit immensely. We
hope this survey provides a valuable reference for ML researchers as well as
those seeking to innovate privacy technologies. Our resources are at
https://github.com/tamlhp/awesome-machine-unlearning.
- Abstract(参考訳): コンピュータシステムは何十年にもわたって大量の個人データを保持している。
一方、そのようなデータ豊富さは人工知能(AI)、特に機械学習(ML)モデルのブレークスルーを可能にする。
一方で、ユーザーのプライバシーを脅かし、人間とaiの間の信頼を弱める可能性がある。
最近の規制では、ユーザに関する個人情報は一般にコンピュータシステムから、特に要求に応じてMLモデルから削除することが要求されている(例えば「忘れられる権利」)。
バックエンドデータベースからデータを削除するのは簡単だが、mlモデルが古いデータを“記憶する”場合が多いため、aiコンテキストでは不十分である。
既存の敵攻撃は、訓練されたモデルから個人メンバーシップやトレーニングデータの属性を学習できることを証明した。
この現象は、機械学習モデルに特定のデータについて忘れさせる新しいパラダイム、すなわち機械学習の学習を要求する。
機械学習に関する最近の研究は、共通のフレームワークやリソースが不足しているため、この問題を完全に解決できなかった。
本稿では,その定義,シナリオ,機構,応用において,機械学習を徹底的に検討することを目的とする。
具体的には、最先端の研究のカテゴリのコレクションとして、機械学習とその様々な定式化、設計要件、削除要求、アルゴリズム、およびさまざまなmlアプリケーションでの使用を求める人々に幅広い参照を提供したいと考えています。
さらに、このパラダイムの重要な発見とトレンドを概説するとともに、機械学習の応用をまだ見ていないが、それでも大きなメリットがある新しい研究領域を強調したいと思います。
この調査は、ML研究者だけでなく、プライバシー技術の革新を目指す人たちにも貴重な参考になることを期待しています。
私たちのリソースはhttps://github.com/tamlhp/awesome-machine-unlearningにあります。
関連論文リスト
- A Review on Machine Unlearning [3.1168315477643245]
本稿では、機械学習モデルにおけるセキュリティとプライバシに関する詳細をレビューする。
まず、機械学習が日々の生活でユーザーのプライベートデータをどのように活用できるか、そしてこの問題で果たす役割について述べる。
次に,機械学習モデルにおけるセキュリティ脅威を記述することによって,機械学習の概念を導入する。
論文 参考訳(メタデータ) (2024-11-18T06:18:13Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Machine Unlearning for Document Classification [14.71726430657162]
機械学習として知られる新しいアプローチが登場し、AIモデルを特定の種類のデータを忘れるようにしている。
この研究は、文書分析アプリケーションにおけるプライバシー問題に対処することを目的とした機械学習手法の開発に向けた先駆的なステップである。
論文 参考訳(メタデータ) (2024-04-29T18:16:13Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Machine Unlearning: Taxonomy, Metrics, Applications, Challenges, and
Prospects [17.502158848870426]
データユーザには、データを忘れる権利が与えられている。
機械学習(ML)の過程で、忘れられた権利は、ユーザーデータを削除するためにモデルプロバイダを必要とする。
機械学習は、業界と学界の両方からますます注目を集めている。
論文 参考訳(メタデータ) (2024-03-13T05:11:24Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。