論文の概要: Cascading and Proxy Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2507.21412v1
- Date: Tue, 29 Jul 2025 00:46:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.456918
- Title: Cascading and Proxy Membership Inference Attacks
- Title(参考訳): カスケードとプロキシメンバーシップ推論攻撃
- Authors: Yuntao Du, Jiacheng Li, Yuetian Chen, Kaiyuan Zhang, Zhizhen Yuan, Hanshen Xiao, Bruno Ribeiro, Ninghui Li,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、トレーニングされた機械学習モデルがトレーニングデータについてどれだけの頻度で明らかにするかを評価する。
我々は,既存のMIAを適応型か非適応型に分類する。
クエリインスタンスにアクセスした後、相手がシャドーモデルを訓練できる適応的な環境では、カスケーディングメンバーシップ推論攻撃(CMIA)と呼ばれる攻撃非依存のフレームワークを提案する。
非適応的な環境では、相手がメンバーシップクエリを得る前にシャドウモデルの訓練に制限される場合、プロキシメンバーシップ推論攻撃(PMIA)を導入する。
- 参考スコア(独自算出の注目度): 17.7796850086875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Membership Inference Attack (MIA) assesses how much a trained machine learning model reveals about its training data by determining whether specific query instances were included in the dataset. We classify existing MIAs into adaptive or non-adaptive, depending on whether the adversary is allowed to train shadow models on membership queries. In the adaptive setting, where the adversary can train shadow models after accessing query instances, we highlight the importance of exploiting membership dependencies between instances and propose an attack-agnostic framework called Cascading Membership Inference Attack (CMIA), which incorporates membership dependencies via conditional shadow training to boost membership inference performance. In the non-adaptive setting, where the adversary is restricted to training shadow models before obtaining membership queries, we introduce Proxy Membership Inference Attack (PMIA). PMIA employs a proxy selection strategy that identifies samples with similar behaviors to the query instance and uses their behaviors in shadow models to perform a membership posterior odds test for membership inference. We provide theoretical analyses for both attacks, and extensive experimental results demonstrate that CMIA and PMIA substantially outperform existing MIAs in both settings, particularly in the low false-positive regime, which is crucial for evaluating privacy risks.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、データセットに特定のクエリインスタンスが含まれているかどうかを判断することで、トレーニングされた機械学習モデルがトレーニングデータについてどれだけの量を明らかにするかを評価する。
我々は,既存のMIAを適応型か非適応型に分類する。
クエリインスタンスにアクセスした後、相手がシャドウモデルを訓練できるアダプティブ・セッティングでは、インスタンス間のメンバーシップ依存を悪用することの重要性を強調し、条件付きシャドウトレーニングを通じてメンバーシップ依存を組み込んでメンバーシップ推論性能を向上させるカスケーディング・メンバーシップ推論攻撃(CMIA)と呼ばれるアタック・アタック・アタック・アタック・アタックを提案する。
非適応的な環境では、相手がメンバーシップクエリを得る前にシャドウモデルの訓練に制限される場合、プロキシメンバーシップ推論攻撃(PMIA)を導入する。
PMIAは、クエリインスタンスに類似した振る舞いを持つサンプルを識別するプロキシ選択戦略を採用し、その振る舞いをシャドーモデルで使用して、メンバシップ後続オッズテストによるメンバシップ推論を実行する。
両攻撃の理論的解析を行い, CMIAとPMIAは, プライバシリスクを評価する上で重要な, 特に低偽陽性体制において, 既存のMIAを著しく上回っていることを示す。
関連論文リスト
- Privacy Leaks by Adversaries: Adversarial Iterations for Membership Inference Attack [21.396030274654073]
IMIAは、敵のサンプルを生成するプロセスを利用して、メンバーシップを推測する新たな攻撃戦略である。
我々は,複数のモデルとデータセットをまたいだ実験を行い,その結果から,対数サンプルを生成する反復回数が,メンバーシップ推論の信頼性の高い特徴であることを実証した。
論文 参考訳(メタデータ) (2025-06-03T10:09:24Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - ReCaLL: Membership Inference via Relative Conditional Log-Likelihoods [56.073335779595475]
本稿ではReCaLL(Relative Conditional Log-Likelihood)を提案する。
実験の結果,非メンバープレフィックスの条件付きメンバーデータは,非メンバーデータと比較してログライクな傾向が著しく低下することがわかった。
我々は総合的な実験を行い、ReCaLLがWikiMIAデータセット上で最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-06-23T00:23:13Z) - Membership Information Leakage in Federated Contrastive Learning [7.822625013699216]
Federated Contrastive Learning (FCL) は、分散化されたラベルなしデータから学ぶための急成長するアプローチである。
FCLは、メンバーシップ情報漏洩など、その分散特性から生じるプライバシーリスクに影響を受けやすい。
本研究は、FCLに対するメンバシップ推論攻撃の実行可能性について検討し、ロバスト攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T19:53:25Z) - MIAShield: Defending Membership Inference Attacks via Preemptive
Exclusion of Members [9.301268830193072]
メンバーシップ推論攻撃では、相手はモデルの予測を観察し、サンプルがモデルのトレーニングデータの一部であるかどうかを判断する。
そこで我々は,MIAShieldを提案する。MIAShieldは,メンバーの存在を隠蔽する代わりに,メンバーサンプルのプリエンプティブ排除に基づく新しいMIAディフェンスである。
我々は,MIAShieldが多岐にわたるMIAの会員推定を効果的に緩和し,最先端の防衛技術と比較してはるかに優れたプライバシー利用トレードオフを実現し,適応的敵に対する耐性を保っていることを示す。
論文 参考訳(メタデータ) (2022-03-02T07:53:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Membership Leakage in Label-Only Exposures [10.875144776014533]
本稿では,機械学習モデルに対する決定に基づくメンバシップ推論攻撃を提案する。
特に、転送攻撃と境界攻撃という2種類の意思決定ベースの攻撃を考案する。
また,量的および質的分析に基づく会員推定の成功に関する新たな知見も提示する。
論文 参考訳(メタデータ) (2020-07-30T15:27:55Z) - Adaptive Adversarial Logits Pairing [65.51670200266913]
逆行訓練ソリューションであるAdversarial Logits Pairing (ALP)は、脆弱なものに比べて、高い貢献度を少なくする傾向にある。
これらの観測により,適応型対数対数対数対数対数対数法 (AALP) を設計し,ALPのトレーニングプロセスとトレーニングターゲットを変更する。
AALPは適応的な機能最適化モジュールと Guided Dropout から構成されており、より少ない高コントリビューション機能を体系的に追求する。
論文 参考訳(メタデータ) (2020-05-25T03:12:20Z) - Revisiting Membership Inference Under Realistic Assumptions [87.13552321332988]
従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
論文 参考訳(メタデータ) (2020-05-21T20:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。