論文の概要: On the Impact of Uncertainty and Calibration on Likelihood-Ratio Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2402.10686v2
- Date: Thu, 15 Aug 2024 16:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 18:53:22.309190
- Title: On the Impact of Uncertainty and Calibration on Likelihood-Ratio Membership Inference Attacks
- Title(参考訳): 不確かさと校正が等間隔メンバーシップ推論攻撃に及ぼす影響について
- Authors: Meiyi Zhu, Caili Guo, Chunyan Feng, Osvaldo Simeone,
- Abstract要約: 我々は,情報理論の枠組みを用いて,最先端の確率比攻撃(LiRA)の性能を解析する。
我々は、MIAの有効性に対する不確実性と校正の影響についての洞察を提供することを目的として、MIA敵の利点に基づいて境界を導出する。
- 参考スコア(独自算出の注目度): 42.18575921329484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a membership inference attack (MIA), an attacker exploits the overconfidence exhibited by typical machine learning models to determine whether a specific data point was used to train a target model. In this paper, we analyze the performance of the state-of-the-art likelihood ratio attack (LiRA) within an information-theoretical framework that allows the investigation of the impact of the aleatoric uncertainty in the true data generation process, of the epistemic uncertainty caused by a limited training data set, and of the calibration level of the target model. We compare three different settings, in which the attacker receives decreasingly informative feedback from the target model: confidence vector (CV) disclosure, in which the output probability vector is released; true label confidence (TLC) disclosure, in which only the probability assigned to the true label is made available by the model; and decision set (DS) disclosure, in which an adaptive prediction set is produced as in conformal prediction. We derive bounds on the advantage of an MIA adversary with the aim of offering insights into the impact of uncertainty and calibration on the effectiveness of MIAs. Simulation results demonstrate that the derived analytical bounds predict well the effectiveness of MIAs.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)では、攻撃者は典型的な機械学習モデルによって提示される過信を利用して、特定のデータポイントを使用してターゲットモデルをトレーニングしたかどうかを判断する。
本稿では, 真のデータ生成プロセスにおけるアレタリック不確実性, 限られたトレーニングデータセットによるてんかん不確実性, ターゲットモデルの校正レベルなどの影響を調査できる情報理論の枠組みを用いて, 最先端度比攻撃(LiRA)の性能を解析する。
我々は、攻撃者がターゲットモデルからの情報的フィードバックを減らし、出力確率ベクトルを解放する信頼ベクトル(CV)開示、真のラベルに割り当てられた確率のみをモデルで得る真のラベル信頼(TLC)開示、適応予測セットを正則予測として生成する決定セット(DS)開示という3つの異なる設定を比較した。
我々は、MIAの有効性に対する不確実性と校正の影響についての洞察を提供することを目的として、MIA敵の利点に基づいて境界を導出する。
シミュレーションの結果, 導出した解析的境界はMIAの有効性をよく予測できることがわかった。
関連論文リスト
- Understanding Uncertainty-based Active Learning Under Model Mismatch [16.361254095103615]
不確実性に基づくアクティブラーニング(UAL)は、予測の不確実性に基づいて選択されたラベル付きプールから重要なサンプルのラベル(s)をクエリすることで動作する。
UALの有効性は、モデル容量と、採用されている不確実性ベースの取得機能に依存する。
論文 参考訳(メタデータ) (2024-08-24T23:37:08Z) - Towards a Game-theoretic Understanding of Explanation-based Membership Inference Attacks [8.06071340190569]
ブラックボックス機械学習(ML)モデルは、メンバーシップ推論攻撃(MIA)のようなプライバシ脅威を実行するために利用することができる。
既存の作業は、敵とターゲットMLモデルの間の単一の"What if"相互作用シナリオにおいてのみ、MIAを分析している。
このような最適しきい値が存在することを証明し、MIAの起動に使用できる音響数学的定式化を提案する。
論文 参考訳(メタデータ) (2024-04-10T16:14:05Z) - To Predict or to Reject: Causal Effect Estimation with Uncertainty on
Networked Data [36.31936265985164]
GraphDKLは、グラフによる因果効果推定を行う際に、肯定的仮定違反に対処する最初のフレームワークである。
本研究では,ネットワークデータに対する不確実性を考慮した因果効果推定における提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-09-15T05:25:43Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。