論文の概要: Defending Model Inversion and Membership Inference Attacks via
Prediction Purification
- arxiv url: http://arxiv.org/abs/2005.03915v2
- Date: Thu, 20 Aug 2020 16:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 13:09:32.661431
- Title: Defending Model Inversion and Membership Inference Attacks via
Prediction Purification
- Title(参考訳): 予測浄化によるモデルインバージョンとメンバーシップ推論攻撃の防御
- Authors: Ziqi Yang, Bin Shao, Bohan Xuan, Ee-Chien Chang, Fan Zhang
- Abstract要約: データ推論攻撃を防御する統合されたフレームワーク、すなわち浄化フレームワークを提案する。
ターゲット分類器によって予測される信頼スコアベクトルを、分散を低減して浄化する。
これにより、メンバシップ推定精度を最大15%削減し、モデル反転誤差を最大4.5%向上させることができる。
- 参考スコア(独自算出の注目度): 19.281532404775756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are susceptible to data inference attacks such as the model
inversion attack and the membership inference attack, where the attacker could
infer the reconstruction and the membership of a data sample from the
confidence scores predicted by the target classifier. In this paper, we propose
a unified approach, namely purification framework, to defend data inference
attacks. It purifies the confidence score vectors predicted by the target
classifier by reducing their dispersion. The purifier can be further
specialized in defending a particular attack via adversarial learning. We
evaluate our approach on benchmark datasets and classifiers. We show that when
the purifier is dedicated to one attack, it naturally defends the other one,
which empirically demonstrates the connection between the two attacks. The
purifier can effectively defend both attacks. For example, it can reduce the
membership inference accuracy by up to 15% and increase the model inversion
error by a factor of up to 4. Besides, it incurs less than 0.4% classification
accuracy drop and less than 5.5% distortion to the confidence scores.
- Abstract(参考訳): ニューラルネットワークは、モデル反転攻撃やメンバーシップ推論攻撃のようなデータ推論攻撃の影響を受けやすく、攻撃者はターゲット分類器によって予測される信頼スコアからデータサンプルの再構成とメンバシップを推測することができる。
本稿では,データ推論攻撃を防御するための統一的な手法,すなわち浄化フレームワークを提案する。
ターゲット分類器が予測する信頼度スコアベクトルを分散を減少させることで純化する。
浄化剤は、特定の攻撃を敵の学習によって防御するのにさらに専門化することができる。
ベンチマークデータセットと分類器のアプローチを評価する。
浄化装置が1つの攻撃に向けられている場合、他の攻撃を自然に防御し、2つの攻撃の関連性を実証的に示す。
浄化器は両方の攻撃を効果的に防御することができる。
例えば、メンバシップ推論の精度を最大15%削減し、モデル反転誤差を最大4.5%向上させることができる。
さらに、0.4%未満の分類精度低下と5.5%未満の信頼性スコアが生じる。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - One Parameter Defense -- Defending against Data Inference Attacks via
Differential Privacy [26.000487178636927]
機械学習モデルは、メンバシップ推論やモデル反転攻撃のようなデータ推論攻撃に弱い。
既存の防衛方法は、メンバーシップ推論攻撃からのみ保護する。
両攻撃を時間効率で処理する差分プライベートディフェンス法を提案する。
論文 参考訳(メタデータ) (2022-03-13T06:06:24Z) - Membership Inference Attacks From First Principles [24.10746844866869]
メンバシップ推論攻撃では、トレーニングされた機械学習モデルをクエリして、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを予測することが可能になる。
これらの攻撃は現在、平均ケースの"精度"メトリクスを使用して評価されており、攻撃がトレーニングセットの任意のメンバを確実に識別できるかどうかを特徴付けることができない。
攻撃は偽陽性率の低い偽陽性率で計算することで評価されるべきであり、このような評価を行った場合、ほとんどの事前攻撃は不十分である。
我々の攻撃は偽陽性率の低いところで10倍強力であり、既存の指標に対する以前の攻撃を厳密に支配している。
論文 参考訳(メタデータ) (2021-12-07T08:47:00Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。