論文の概要: Hard to Forget: Poisoning Attacks on Certified Machine Unlearning
- arxiv url: http://arxiv.org/abs/2109.08266v1
- Date: Fri, 17 Sep 2021 01:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:29:56.464232
- Title: Hard to Forget: Poisoning Attacks on Certified Machine Unlearning
- Title(参考訳): 忘れがたいこと: 認定マシンアンラーニングに対する毒殺攻撃
- Authors: Neil G. Marchant, Benjamin I. P. Rubinstein, Scott Alfeld
- Abstract要約: 我々は,データ削除の計算コストを増大させようとする攻撃者を考える。
我々は、認定された機械の未学習に対する中毒攻撃を導出し、実証的に調査する。
- 参考スコア(独自算出の注目度): 13.516740881682903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The right to erasure requires removal of a user's information from data held
by organizations, with rigorous interpretations extending to downstream
products such as learned models. Retraining from scratch with the particular
user's data omitted fully removes its influence on the resulting model, but
comes with a high computational cost. Machine "unlearning" mitigates the cost
incurred by full retraining: instead, models are updated incrementally,
possibly only requiring retraining when approximation errors accumulate. Rapid
progress has been made towards privacy guarantees on the indistinguishability
of unlearned and retrained models, but current formalisms do not place
practical bounds on computation. In this paper we demonstrate how an attacker
can exploit this oversight, highlighting a novel attack surface introduced by
machine unlearning. We consider an attacker aiming to increase the
computational cost of data removal. We derive and empirically investigate a
poisoning attack on certified machine unlearning where strategically designed
training data triggers complete retraining when removed.
- Abstract(参考訳): 消去する権利は、学習モデルのような下流製品に広がる厳格な解釈によって、組織が保持するデータからユーザーの情報を削除することを必要とする。
特定のユーザのデータをスクラッチから再トレーニングすることで、結果モデルへの影響は完全に排除されるが、高い計算コストが伴う。
マシン"アンラーニング"は、完全な再トレーニングによって発生するコストを軽減します。代わりに、モデルは漸進的に更新されます。
未学習モデルと再訓練モデルの区別不能性に関するプライバシの保証に向けて急速に進歩してきたが、現在の形式化は計算に実用的な限界をもたらさない。
本稿では,攻撃者がこの監視をいかに活用できるかを実証し,機械学習によって導入された新しい攻撃面を強調する。
我々は,データ削除の計算コストを増大させようとする攻撃者を考える。
戦略的に設計されたトレーニングデータが削除時に完全に再トレーニングをトリガーする、認定されたマシンアンラーニングに対する毒殺攻撃を導出し、実証的に調査する。
関連論文リスト
- Releasing Malevolence from Benevolence: The Menace of Benign Data on Machine Unlearning [28.35038726318893]
大量の実データや合成データに基づいてトレーニングされた機械学習モデルは、様々な領域で優れた予測性能を達成する。
プライバシの懸念に対処するため、モデルから特定のデータサンプルを削除するために、機械学習が提案されている。
本研究では,データ配信情報を少量の良質なデータ集合に抽出するために,Unlearning Usability Attackを導入する。
論文 参考訳(メタデータ) (2024-07-06T15:42:28Z) - Reconstruction Attacks on Machine Unlearning: Simple Models are Vulnerable [30.22146634953896]
線形回帰モデルから削除したデータポイントに対して、ほぼ完璧な攻撃をマウントする方法を示す。
我々の研究は、個人がモデルからデータの削除を要求できる非常に単純なモデルクラスであっても、プライバシリスクが重要であることを強調している。
論文 参考訳(メタデータ) (2024-05-30T17:27:44Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Reconstructing Training Data with Informed Adversaries [30.138217209991826]
機械学習モデルへのアクセスを考えると、敵はモデルのトレーニングデータを再構築できるだろうか?
本研究は、この疑問を、学習データポイントの全てを知っている強力な情報提供者のレンズから研究する。
この厳密な脅威モデルにおいて、残りのデータポイントを再構築することは可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T09:19:25Z) - Machine unlearning via GAN [2.406359246841227]
機械学習モデル、特にディープラーニングモデルは、トレーニングデータに関する情報を意図せずに記憶することができる。
本稿では,深層モデルにおけるデータ削除のためのGANアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-22T05:28:57Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Amnesiac Machine Learning [15.680008735220785]
最近制定された一般データ保護規則は、欧州連合の居住者に関するデータを持つデータ保有者に影響を与えている。
モデルは、モデル反転攻撃のような情報漏洩攻撃に対して脆弱である。
我々は、モデル所有者が規制に準拠しながら、そのような攻撃から身を守ることのできる、UnlearningとAmnesiac Unlearningの2つのデータ除去方法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:14:17Z) - Certified Data Removal from Machine Learning Models [79.91502073022602]
優れたデータスチュワードシップでは、データ所有者の要求でデータを削除する必要がある。
これにより、トレーニングデータに関する情報を暗黙的に格納するトレーニングされた機械学習モデルが、このような削除要求の影響を受けるべきかどうか、という疑問が提起される。
データを削除したモデルと、最初にデータを観測しなかったモデルとを区別できないという非常に強力な理論的保証である。
論文 参考訳(メタデータ) (2019-11-08T03:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。