論文の概要: Membership Inference Attacks with False Discovery Rate Control
- arxiv url: http://arxiv.org/abs/2508.07066v1
- Date: Sat, 09 Aug 2025 18:14:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.682995
- Title: Membership Inference Attacks with False Discovery Rate Control
- Title(参考訳): 偽発見率制御による会員推測攻撃
- Authors: Chenxu Zhao, Wei Qian, Aobo Chen, Mengdi Huai,
- Abstract要約: メンバシップ推論攻撃は、データレコードがターゲットモデルをトレーニングするために使用されたかどうかを推測することを目的としている。
偽発見率の保証を提供する新しい会員推論攻撃法を設計する。
また,本手法は,真の非会員データを会員データとしてラベル付けする際の限界確率保証も実現可能であることを示す。
- 参考スコア(独自算出の注目度): 17.198821970846765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that deep learning models are vulnerable to membership inference attacks (MIAs), which aim to infer whether a data record was used to train a target model or not. To analyze and study these vulnerabilities, various MIA methods have been proposed. Despite the significance and popularity of MIAs, existing works on MIAs are limited in providing guarantees on the false discovery rate (FDR), which refers to the expected proportion of false discoveries among the identified positive discoveries. However, it is very challenging to ensure the false discovery rate guarantees, because the underlying distribution is usually unknown, and the estimated non-member probabilities often exhibit interdependence. To tackle the above challenges, in this paper, we design a novel membership inference attack method, which can provide the guarantees on the false discovery rate. Additionally, we show that our method can also provide the marginal probability guarantee on labeling true non-member data as member data. Notably, our method can work as a wrapper that can be seamlessly integrated with existing MIA methods in a post-hoc manner, while also providing the FDR control. We perform the theoretical analysis for our method. Extensive experiments in various settings (e.g., the black-box setting and the lifelong learning setting) are also conducted to verify the desirable performance of our method.
- Abstract(参考訳): 近年の研究では、深層学習モデルは、データレコードがターゲットモデルのトレーニングに使用されたかどうかを推測することを目的とした、メンバーシップ推論攻撃(MIA)に弱いことが示されている。
これらの脆弱性を分析し研究するために、様々なMIA手法が提案されている。
MIAの重要性と人気にもかかわらず、MIAの既存の研究は偽発見率(FDR)の保証を限定している。
しかしながら、基礎となる分布が通常不明であり、推定された非メンバー確率が相互依存性を示すため、誤った発見率を保証することは非常に困難である。
上記の課題に対処するため,本稿では,偽発見率の保証を提供する新しい会員推論攻撃法を設計する。
さらに,本手法は,真の非会員データを会員データとしてラベル付けする際の限界確率保証も実現可能であることを示す。
特に,本手法は,既存のMIAメソッドとシームレスに統合可能なラッパーとして機能すると同時に,FDR制御も提供する。
提案手法の理論的解析を行う。
また,様々な環境(例えば,ブラックボックス設定,生涯学習設定)における広範囲な実験を行い,本手法の望ましい性能を検証した。
関連論文リスト
- Saffron-1: Safety Inference Scaling [69.61130284742353]
SAFFRONは、安全保証のために明示的に調整された、新しい推論スケーリングパラダイムである。
我々のアプローチの中心は、要求される報酬モデルの評価を著しく削減する乗算報酬モデル(MRM)の導入である。
トレーニング済みの多機能報酬モデル(Saffron-1)とそれに伴うトークンレベルの安全報酬データセット(Safety4M)を公開します。
論文 参考訳(メタデータ) (2025-06-06T18:05:45Z) - Practical Membership Inference Attacks against Fine-tuned Large Language Models via Self-prompt Calibration [32.15773300068426]
メンバーシップ推論攻撃は、対象のデータレコードがモデルトレーニングに使用されたかどうかを推測することを目的としている。
自己校正確率変動(SPV-MIA)に基づくメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2023-11-10T13:55:05Z) - Fundamental Limits of Membership Inference Attacks on Machine Learning Models [29.367087890055995]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがトレーニングデータセットの一部であったかどうかを明らかにすることができる。
本稿では、機械学習モデル全体におけるMIAに関する基本的な統計的制限を探索することによって、理論的保証を提供する。
論文 参考訳(メタデータ) (2023-10-20T19:32:54Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - On the Effectiveness of Regularization Against Membership Inference
Attacks [26.137849584503222]
ディープラーニングモデルは、トレーニングデータに関する情報を漏らすと、しばしばプライバシー上の懸念を引き起こす。
これにより、モデルのトレーニングセットにあるデータポイントがメンバーシップ推論アタック(MIA)によって決定される。
多くの正規化機構が存在するが、MIAに対する効果は体系的に研究されていない。
論文 参考訳(メタデータ) (2020-06-09T15:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。