論文の概要: Amnesiac Machine Learning
- arxiv url: http://arxiv.org/abs/2010.10981v1
- Date: Wed, 21 Oct 2020 13:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:24:56.164406
- Title: Amnesiac Machine Learning
- Title(参考訳): アムネシアック機械学習
- Authors: Laura Graves, Vineel Nagisetty, Vijay Ganesh
- Abstract要約: 最近制定された一般データ保護規則は、欧州連合の居住者に関するデータを持つデータ保有者に影響を与えている。
モデルは、モデル反転攻撃のような情報漏洩攻撃に対して脆弱である。
我々は、モデル所有者が規制に準拠しながら、そのような攻撃から身を守ることのできる、UnlearningとAmnesiac Unlearningの2つのデータ除去方法を提案する。
- 参考スコア(独自算出の注目度): 15.680008735220785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Right to be Forgotten is part of the recently enacted General Data
Protection Regulation (GDPR) law that affects any data holder that has data on
European Union residents. It gives EU residents the ability to request deletion
of their personal data, including training records used to train machine
learning models. Unfortunately, Deep Neural Network models are vulnerable to
information leaking attacks such as model inversion attacks which extract class
information from a trained model and membership inference attacks which
determine the presence of an example in a model's training data. If a malicious
party can mount an attack and learn private information that was meant to be
removed, then it implies that the model owner has not properly protected their
user's rights and their models may not be compliant with the GDPR law. In this
paper, we present two efficient methods that address this question of how a
model owner or data holder may delete personal data from models in such a way
that they may not be vulnerable to model inversion and membership inference
attacks while maintaining model efficacy. We start by presenting a real-world
threat model that shows that simply removing training data is insufficient to
protect users. We follow that up with two data removal methods, namely
Unlearning and Amnesiac Unlearning, that enable model owners to protect
themselves against such attacks while being compliant with regulations. We
provide extensive empirical analysis that show that these methods are indeed
efficient, safe to apply, effectively remove learned information about
sensitive data from trained models while maintaining model efficacy.
- Abstract(参考訳): 忘れられる権利は、最近制定された一般データ保護規則(GDPR)法の一部であり、欧州連合の居住者に関するデータを持つデータ保有者に影響を与える。
EUの住民は、機械学習モデルのトレーニングに使用するトレーニング記録を含む、個人データの削除を要求することができる。
残念ながら、ディープニューラルネットワークモデルは、トレーニングされたモデルからクラス情報を抽出するモデル反転攻撃や、モデルのトレーニングデータにおけるサンプルの存在を決定するメンバーシップ推論攻撃など、情報漏洩攻撃に対して脆弱である。
悪意のある当事者が攻撃をマウントし、削除を意図した個人情報を学習できれば、モデル所有者はユーザーの権利を適切に保護しておらず、モデルがGDPR法に準拠していない可能性があることを意味する。
本稿では,モデルオーナやデータホルダがモデルの有効性を維持しつつ,モデルインバージョンやメンバシップ推論攻撃に脆弱にならないような方法で,モデルから個人データを削除できるのかという問題に対して,この2つの効率的な手法を提案する。
まず、トレーニングデータの削除がユーザを保護するには不十分であることを示す、現実世界の脅威モデルを提示します。
そして、UnlearningとAmnesiac Unlearningという2つのデータ削除手法により、モデル所有者は規制に準拠しながら、そのような攻撃から身を守ることができる。
これらの手法が本当に効率的で、適用が安全であり、モデルの有効性を維持しながら、トレーニングされたモデルからセンシティブなデータに関する学習情報を効果的に削除できることを示す、広範な実証分析を提供する。
関連論文リスト
- Membership Inference Attacks Cannot Prove that a Model Was Trained On Your Data [27.18781946018255]
ウェブスケールのデータに基づいてトレーニングされた基礎モデルに対する最近の訴訟では、データ証明のトレーニングが重要な役割を担っている。
多くの先行研究は、メンバシップ推論攻撃を用いたトレーニングデータ証明のインスタンス化を示唆している。
本研究では, 特殊なカナリアデータに対するデータ抽出攻撃と会員推定が, 音響訓練データ証明の作成に有効であることを示す。
論文 参考訳(メタデータ) (2024-09-29T21:49:32Z) - Releasing Malevolence from Benevolence: The Menace of Benign Data on Machine Unlearning [28.35038726318893]
大量の実データや合成データに基づいてトレーニングされた機械学習モデルは、様々な領域で優れた予測性能を達成する。
プライバシの懸念に対処するため、モデルから特定のデータサンプルを削除するために、機械学習が提案されている。
本研究では,データ配信情報を少量の良質なデータ集合に抽出するために,Unlearning Usability Attackを導入する。
論文 参考訳(メタデータ) (2024-07-06T15:42:28Z) - Reconstruction Attacks on Machine Unlearning: Simple Models are Vulnerable [30.22146634953896]
線形回帰モデルから削除したデータポイントに対して、ほぼ完璧な攻撃をマウントする方法を示す。
我々の研究は、個人がモデルからデータの削除を要求できる非常に単純なモデルクラスであっても、プライバシリスクが重要であることを強調している。
論文 参考訳(メタデータ) (2024-05-30T17:27:44Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Machine unlearning via GAN [2.406359246841227]
機械学習モデル、特にディープラーニングモデルは、トレーニングデータに関する情報を意図せずに記憶することができる。
本稿では,深層モデルにおけるデータ削除のためのGANアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-22T05:28:57Z) - Certified Data Removal from Machine Learning Models [79.91502073022602]
優れたデータスチュワードシップでは、データ所有者の要求でデータを削除する必要がある。
これにより、トレーニングデータに関する情報を暗黙的に格納するトレーニングされた機械学習モデルが、このような削除要求の影響を受けるべきかどうか、という疑問が提起される。
データを削除したモデルと、最初にデータを観測しなかったモデルとを区別できないという非常に強力な理論的保証である。
論文 参考訳(メタデータ) (2019-11-08T03:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。