論文の概要: On the Importance of Difficulty Calibration in Membership Inference
Attacks
- arxiv url: http://arxiv.org/abs/2111.08440v1
- Date: Mon, 15 Nov 2021 12:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 07:27:33.280183
- Title: On the Importance of Difficulty Calibration in Membership Inference
Attacks
- Title(参考訳): 会員推定攻撃における難易度校正の重要性について
- Authors: Lauren Watson and Chuan Guo and Graham Cormode and Alex Sablayrolles
- Abstract要約: キャリブレーションの難易度は, 精度を損なうことなく, 既存攻撃の偽陽性率を大幅に低減できることを示す。
本研究では,攻撃の予測メンバーシップスコアを,対象サンプルを正しく分類することの困難さに応じて調整する,難易度校正から,メンバシップ推論攻撃が飛躍的に恩恵を受けることを論じる。
- 参考スコア(独自算出の注目度): 11.158194237126414
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The vulnerability of machine learning models to membership inference attacks
has received much attention in recent years. However, existing attacks mostly
remain impractical due to having high false positive rates, where non-member
samples are often erroneously predicted as members. This type of error makes
the predicted membership signal unreliable, especially since most samples are
non-members in real world applications. In this work, we argue that membership
inference attacks can benefit drastically from \emph{difficulty calibration},
where an attack's predicted membership score is adjusted to the difficulty of
correctly classifying the target sample. We show that difficulty calibration
can significantly reduce the false positive rate of a variety of existing
attacks without a loss in accuracy.
- Abstract(参考訳): 近年,メンバーシップ推論攻撃に対する機械学習モデルの脆弱性が注目されている。
しかし、既存の攻撃は主に偽陽性率が高いために実行不可能であり、非メンバーのサンプルは誤ってメンバーとして予測されることが多い。
このタイプのエラーは、予測されたメンバーシップ信号の信頼性を低下させる。
本研究では,攻撃の予測メンバーシップスコアを,対象サンプルを正しく分類することの困難さに応じて調整する,‘emph{difficulty calibration}’から,メンバシップ推論攻撃が大幅に恩恵を受けることを論じる。
キャリブレーションの難易度は, 精度を損なうことなく, 既存攻撃の偽陽性率を大幅に低減できることを示す。
関連論文リスト
- Is Difficulty Calibration All We Need? Towards More Practical Membership Inference Attacks [16.064233621959538]
我々は,textbfRe-levertextbfA を直接 textbfRe-levertextbfA を用いて mtextbfItigate the error in textbfDifficulty calibration を提案する。
論文 参考訳(メタデータ) (2024-08-31T11:59:42Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - Robustly-reliable learners under poisoning attacks [38.55373038919402]
複数の軸にまたがる攻撃に直面して強靭性を保証する方法を示す。
我々は、敵が所定の汚職予算を超過していない限り、予測されたラベルが正しいことが保証される、信頼性の高い予測を提供する。
注目すべきは、この設定における学習可能性の完全な特徴付け、特に、認定可能な領域上の上と下の境界にほぼ整合するものである。
論文 参考訳(メタデータ) (2022-03-08T15:43:33Z) - Membership Inference Attacks From First Principles [24.10746844866869]
メンバシップ推論攻撃では、トレーニングされた機械学習モデルをクエリして、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを予測することが可能になる。
これらの攻撃は現在、平均ケースの"精度"メトリクスを使用して評価されており、攻撃がトレーニングセットの任意のメンバを確実に識別できるかどうかを特徴付けることができない。
攻撃は偽陽性率の低い偽陽性率で計算することで評価されるべきであり、このような評価を行った場合、ほとんどの事前攻撃は不十分である。
我々の攻撃は偽陽性率の低いところで10倍強力であり、既存の指標に対する以前の攻撃を厳密に支配している。
論文 参考訳(メタデータ) (2021-12-07T08:47:00Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - On the Difficulty of Membership Inference Attacks [11.172550334631921]
近年の研究では,深層モデルに対するMI攻撃が提案されている。
明らかな成功にもかかわらず、これらの研究は正のクラス(メンバークラス)の正確さ、正確さ、リコールのみを報告している。
報告されていない偽陽性率や誤警報率(FAR)に悩まされているため,MI攻撃の報告方法が誤解を招くことが多い。
論文 参考訳(メタデータ) (2020-05-27T23:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。