論文の概要: Membership Inference Attacks and Defenses in Classification Models
- arxiv url: http://arxiv.org/abs/2002.12062v3
- Date: Wed, 3 Feb 2021 01:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:34:36.201462
- Title: Membership Inference Attacks and Defenses in Classification Models
- Title(参考訳): 分類モデルにおけるメンバーシップ推論攻撃と防御
- Authors: Jiacheng Li, Ninghui Li, Bruno Ribeiro
- Abstract要約: 分類器に対するMI攻撃について検討する。
我々は、MI攻撃に対するモデルの脆弱性が一般化ギャップと密接に関連していることを発見した。
トレーニング精度を意図的に低減し,ギャップを埋めることを目的としたMI攻撃に対する防御手法を提案する。
- 参考スコア(独自算出の注目度): 19.498313593713043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the membership inference (MI) attack against classifiers, where the
attacker's goal is to determine whether a data instance was used for training
the classifier. Through systematic cataloging of existing MI attacks and
extensive experimental evaluations of them, we find that a model's
vulnerability to MI attacks is tightly related to the generalization gap -- the
difference between training accuracy and test accuracy. We then propose a
defense against MI attacks that aims to close the gap by intentionally reduces
the training accuracy. More specifically, the training process attempts to
match the training and validation accuracies, by means of a new {\em set
regularizer} using the Maximum Mean Discrepancy between the softmax output
empirical distributions of the training and validation sets. Our experimental
results show that combining this approach with another simple defense (mix-up
training) significantly improves state-of-the-art defense against MI attacks,
with minimal impact on testing accuracy.
- Abstract(参考訳): 分類器に対するメンバシップ推論(mi)攻撃について検討し,攻撃者の目標は,データインスタンスが分類器のトレーニングに使用されたかどうかを判断することである。
既存のMI攻撃の体系的なカタログ化と実験的な評価により、MI攻撃に対するモデルの脆弱性は、トレーニング精度とテスト精度の差である一般化ギャップと密接に関連していることがわかった。
次に、故意に訓練精度を下げることによりギャップを埋めることを目的としたMI攻撃に対する防御を提案する。
より具体的には、トレーニングプロセスはトレーニングと検証の精度を一致させようとするが、トレーニングセットと検証セットの出力経験分布の最大平均値の差分法を用いて、新しい {\em set regularizer} を用いる。
実験結果から,本手法を他の簡単な防御(混合訓練)と組み合わせることで,MI攻撃に対する最先端防御が著しく向上し,テスト精度が最小限に抑えられることが示された。
関連論文リスト
- Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - MIST: Defending Against Membership Inference Attacks Through Membership-Invariant Subspace Training [20.303439793769854]
メンバー推論(MI)攻撃は、プライベートデータを使用して機械学習(ML)モデルをトレーニングする際の大きなプライバシー上の問題である。
我々はMI攻撃を防御する新しいメンバーシップ・不変部分空間訓練(MIST)手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T01:25:49Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Overconfidence is a Dangerous Thing: Mitigating Membership Inference
Attacks by Enforcing Less Confident Prediction [2.2336243882030025]
機械学習モデルは、メンバシップ推論攻撃(MIA)に対して脆弱である
この研究は、強力なメンバーシップのプライバシと高い精度の両方を、余分なデータを必要とすることなく達成できる防衛技術であるHAMPを提案する。
論文 参考訳(メタデータ) (2023-07-04T09:50:33Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Membership Inference Attacks by Exploiting Loss Trajectory [19.900473800648243]
そこで本研究では,対象モデルのトレーニングプロセス全体から,メンバシップ情報を利用する新たな攻撃手法であるシステムを提案する。
我々の攻撃は、既存の方法よりも0.1%低い偽陽性率で、少なくとも6$times$高い真陽性率を達成する。
論文 参考訳(メタデータ) (2022-08-31T16:02:26Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - On the Difficulty of Membership Inference Attacks [11.172550334631921]
近年の研究では,深層モデルに対するMI攻撃が提案されている。
明らかな成功にもかかわらず、これらの研究は正のクラス(メンバークラス)の正確さ、正確さ、リコールのみを報告している。
報告されていない偽陽性率や誤警報率(FAR)に悩まされているため,MI攻撃の報告方法が誤解を招くことが多い。
論文 参考訳(メタデータ) (2020-05-27T23:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。