論文の概要: Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores
- arxiv url: http://arxiv.org/abs/2212.00612v1
- Date: Thu, 1 Dec 2022 16:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:32:32.795631
- Title: Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores
- Title(参考訳): Purifier: 信頼スコア変換によるデータ推論攻撃の回避
- Authors: Ziqi Yang, Lijin Wang, Da Yang, Jie Wan, Ziming Zhao, Ee-Chien Chang,
Fan Zhang, Kui Ren
- Abstract要約: そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
- 参考スコア(独自算出の注目度): 27.330482508047428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are susceptible to data inference attacks such as the
membership inference attack, the adversarial model inversion attack and the
attribute inference attack, where the attacker could infer useful information
such as the membership, the reconstruction or the sensitive attributes of a
data sample from the confidence scores predicted by the target classifier. In
this paper, we propose a method, namely PURIFIER, to defend against membership
inference attacks. It transforms the confidence score vectors predicted by the
target classifier and makes purified confidence scores indistinguishable in
individual shape, statistical distribution and prediction label between members
and non-members. The experimental results show that PURIFIER helps defend
membership inference attacks with high effectiveness and efficiency,
outperforming previous defense methods, and also incurs negligible utility
loss. Besides, our further experiments show that PURIFIER is also effective in
defending adversarial model inversion attacks and attribute inference attacks.
For example, the inversion error is raised about 4+ times on the Facescrub530
classifier, and the attribute inference accuracy drops significantly when
PURIFIER is deployed in our experiment.
- Abstract(参考訳): ニューラルネットワークは、メンバシップ推論攻撃、敵モデル反転攻撃、属性推論攻撃などのデータ推論攻撃に影響を受けやすく、攻撃者は、ターゲット分類器が予測した信頼度スコアから、データサンプルのメンバシップ、再構築、または機密属性などの有用な情報を推測することができる。
本稿では,PURIFIERを用いた会員推論攻撃に対する防御手法を提案する。
ターゲット分類器によって予測される信頼スコアベクトルを変換し、メンバーと非メンバー間の個人形状、統計分布、予測ラベルに区別できない純粋信頼スコアを作成する。
実験の結果, PURIFIERは, 有効性と効率性が高く, 従来の防御方法よりも優れており, 無効なユーティリティ損失も生じていることがわかった。
さらに,PURIFIERは,敵モデル逆転攻撃や属性推論攻撃の防御にも有効であることを示す。
例えば、facescrub530分類器では、インバージョンエラーが約4回発生し、実験で精製器をデプロイすると属性推論精度が大幅に低下します。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - One Parameter Defense -- Defending against Data Inference Attacks via
Differential Privacy [26.000487178636927]
機械学習モデルは、メンバシップ推論やモデル反転攻撃のようなデータ推論攻撃に弱い。
既存の防衛方法は、メンバーシップ推論攻撃からのみ保護する。
両攻撃を時間効率で処理する差分プライベートディフェンス法を提案する。
論文 参考訳(メタデータ) (2022-03-13T06:06:24Z) - Formalizing and Estimating Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃の形式的および一般的な定義を提案する。
以上の結果から,安価なメタクラス化攻撃は高価なメタクラス化攻撃と同じくらい効果的であることが示唆された。
我々は、最先端のプロパティ推論攻撃を畳み込みニューラルネットワークに拡張する。
論文 参考訳(メタデータ) (2021-09-13T14:54:39Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Black-box Model Inversion Attribute Inference Attacks on Classification
Models [32.757792981935815]
我々は、トレーニングデータのインスタンスに関する非感受性属性を敵が知るような、ある種類のモデル反転攻撃に焦点を当てる。
信頼モデルに基づく攻撃と信頼スコアに基づく攻撃の2つの新しいモデル反転属性推論攻撃を考案した。
2つの実際のデータセットでトレーニングされた決定木とディープニューラルネットワークの2種類の機械学習モデルに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-12-07T01:14:19Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z) - Defending Model Inversion and Membership Inference Attacks via
Prediction Purification [19.281532404775756]
データ推論攻撃を防御する統合されたフレームワーク、すなわち浄化フレームワークを提案する。
ターゲット分類器によって予測される信頼スコアベクトルを、分散を低減して浄化する。
これにより、メンバシップ推定精度を最大15%削減し、モデル反転誤差を最大4.5%向上させることができる。
論文 参考訳(メタデータ) (2020-05-08T09:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。