論文の概要: Machine unlearning via GAN
- arxiv url: http://arxiv.org/abs/2111.11869v1
- Date: Mon, 22 Nov 2021 05:28:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 14:14:44.000700
- Title: Machine unlearning via GAN
- Title(参考訳): GANによる機械学習
- Authors: Kongyang Chen and Yao Huang and Yiwen Wang
- Abstract要約: 機械学習モデル、特にディープラーニングモデルは、トレーニングデータに関する情報を意図せずに記憶することができる。
本稿では,深層モデルにおけるデータ削除のためのGANアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.406359246841227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models, especially deep models, may unintentionally remember
information about their training data. Malicious attackers can thus pilfer some
property about training data by attacking the model via membership inference
attack or model inversion attack. Some regulations, such as the EU's GDPR, have
enacted "The Right to Be Forgotten" to protect users' data privacy, enhancing
individuals' sovereignty over their data. Therefore, removing training data
information from a trained model has become a critical issue. In this paper, we
present a GAN-based algorithm to delete data in deep models, which
significantly improves deleting speed compared to retraining from scratch,
especially in complicated scenarios. We have experimented on five commonly used
datasets, and the experimental results show the efficiency of our method.
- Abstract(参考訳): 機械学習モデル、特に深層モデルでは、意図せずにトレーニングデータに関する情報を記憶することがある。
したがって、悪意のある攻撃者は、メンバーシップ推論攻撃やモデル反転攻撃を通じてモデルを攻撃することによって、トレーニングデータに関するいくつかのプロパティをピルファーすることができる。
EUのGDPRなど一部の規制では、データのプライバシーを保護し、個人のデータに対する主権を高めるために、"The Right to Be Forgotten"を制定している。
そのため、トレーニングモデルからトレーニングデータ情報を削除することが重要な問題となっている。
本稿では,特に複雑なシナリオにおいて,スクラッチから再トレーニングするよりも,削除速度が大幅に向上する,深層モデルにおけるデータ削除のためのganアルゴリズムを提案する。
5つの一般的なデータセットを用いて実験を行い,本手法の有効性を示した。
関連論文リスト
- Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Boosting Model Inversion Attacks with Adversarial Examples [26.904051413441316]
ブラックボックス設定において、より高い攻撃精度を達成できる学習ベースモデル反転攻撃のための新しい訓練パラダイムを提案する。
まず,攻撃モデルの学習過程を,意味的損失関数を追加して規則化する。
第2に、学習データに逆例を注入し、クラス関連部の多様性を高める。
論文 参考訳(メタデータ) (2023-06-24T13:40:58Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Hard to Forget: Poisoning Attacks on Certified Machine Unlearning [13.516740881682903]
我々は,データ削除の計算コストを増大させようとする攻撃者を考える。
我々は、認定された機械の未学習に対する中毒攻撃を導出し、実証的に調査する。
論文 参考訳(メタデータ) (2021-09-17T01:00:46Z) - Amnesiac Machine Learning [15.680008735220785]
最近制定された一般データ保護規則は、欧州連合の居住者に関するデータを持つデータ保有者に影響を与えている。
モデルは、モデル反転攻撃のような情報漏洩攻撃に対して脆弱である。
我々は、モデル所有者が規制に準拠しながら、そのような攻撃から身を守ることのできる、UnlearningとAmnesiac Unlearningの2つのデータ除去方法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:14:17Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - When Machine Unlearning Jeopardizes Privacy [25.167214892258567]
機械学習による意図しない情報漏洩について検討する。
高い性能を実現する新しいメンバーシップ推論攻撃を提案する。
我々の結果は、機械学習の実践的な実装におけるプライバシー保護の改善に役立つ。
論文 参考訳(メタデータ) (2020-05-05T14:11:52Z) - Certified Data Removal from Machine Learning Models [79.91502073022602]
優れたデータスチュワードシップでは、データ所有者の要求でデータを削除する必要がある。
これにより、トレーニングデータに関する情報を暗黙的に格納するトレーニングされた機械学習モデルが、このような削除要求の影響を受けるべきかどうか、という疑問が提起される。
データを削除したモデルと、最初にデータを観測しなかったモデルとを区別できないという非常に強力な理論的保証である。
論文 参考訳(メタデータ) (2019-11-08T03:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。