論文の概要: Uncertainty, Calibration, and Membership Inference Attacks: An
Information-Theoretic Perspective
- arxiv url: http://arxiv.org/abs/2402.10686v1
- Date: Fri, 16 Feb 2024 13:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:17:34.448082
- Title: Uncertainty, Calibration, and Membership Inference Attacks: An
Information-Theoretic Perspective
- Title(参考訳): 不確かさ、校正、およびメンバーシップ推論攻撃:情報理論の視点から
- Authors: Meiyi Zhu, Caili Guo, Chunyan Feng, Osvaldo Simeone
- Abstract要約: 我々は,情報理論の枠組みを用いて,最先端の確率比攻撃(LiRA)の性能を解析する。
我々は、MIAの有効性に対する不確実性と校正の影響についての洞察を提供することを目的として、MIA敵の利点に基づいて境界を導出する。
- 参考スコア(独自算出の注目度): 46.08491133624608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a membership inference attack (MIA), an attacker exploits the
overconfidence exhibited by typical machine learning models to determine
whether a specific data point was used to train a target model. In this paper,
we analyze the performance of the state-of-the-art likelihood ratio attack
(LiRA) within an information-theoretical framework that allows the
investigation of the impact of the aleatoric uncertainty in the true data
generation process, of the epistemic uncertainty caused by a limited training
data set, and of the calibration level of the target model. We compare three
different settings, in which the attacker receives decreasingly informative
feedback from the target model: confidence vector (CV) disclosure, in which the
output probability vector is released; true label confidence (TLC) disclosure,
in which only the probability assigned to the true label is made available by
the model; and decision set (DS) disclosure, in which an adaptive prediction
set is produced as in conformal prediction. We derive bounds on the advantage
of an MIA adversary with the aim of offering insights into the impact of
uncertainty and calibration on the effectiveness of MIAs. Simulation results
demonstrate that the derived analytical bounds predict well the effectiveness
of MIAs.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)では、攻撃者は典型的な機械学習モデルによって提示される過信を利用して、特定のデータポイントを使用してターゲットモデルをトレーニングしたかどうかを判断する。
本稿では,実データ生成過程におけるアレエータ的不確実性の影響,限られたトレーニングデータセットによる認識的不確実性,および対象モデルのキャリブレーションレベルについて,情報理論的な枠組みにおいて,最先端の確率比攻撃(lira)の性能を解析する。
我々は,攻撃者が対象モデルから情報的フィードバックを受ける3つの異なる設定を比較する: 出力確率ベクトルを解放する信頼ベクトル(cv)開示, モデルによって真のラベルに割り当てられた確率のみを利用可能とする真のラベル信頼(tlc)開示, 適応予測セットを共形予測で生成する意思決定集合(ds)開示。
我々は,miasの有効性に対する不確実性とキャリブレーションの影響についての洞察を提供することを目的として,mia敵の利点の限界を導出する。
シミュレーションの結果,miasの有効性を十分に予測できることがわかった。
関連論文リスト
- Understanding Uncertainty-based Active Learning Under Model Mismatch [16.361254095103615]
不確実性に基づくアクティブラーニング(UAL)は、予測の不確実性に基づいて選択されたラベル付きプールから重要なサンプルのラベル(s)をクエリすることで動作する。
UALの有効性は、モデル容量と、採用されている不確実性ベースの取得機能に依存する。
論文 参考訳(メタデータ) (2024-08-24T23:37:08Z) - Towards a Game-theoretic Understanding of Explanation-based Membership Inference Attacks [8.06071340190569]
ブラックボックス機械学習(ML)モデルは、メンバーシップ推論攻撃(MIA)のようなプライバシ脅威を実行するために利用することができる。
既存の作業は、敵とターゲットMLモデルの間の単一の"What if"相互作用シナリオにおいてのみ、MIAを分析している。
このような最適しきい値が存在することを証明し、MIAの起動に使用できる音響数学的定式化を提案する。
論文 参考訳(メタデータ) (2024-04-10T16:14:05Z) - To Predict or to Reject: Causal Effect Estimation with Uncertainty on
Networked Data [36.31936265985164]
GraphDKLは、グラフによる因果効果推定を行う際に、肯定的仮定違反に対処する最初のフレームワークである。
本研究では,ネットワークデータに対する不確実性を考慮した因果効果推定における提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-09-15T05:25:43Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。