論文の概要: Evaluating the Dynamics of Membership Privacy in Deep Learning
- arxiv url: http://arxiv.org/abs/2507.23291v1
- Date: Thu, 31 Jul 2025 07:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.215368
- Title: Evaluating the Dynamics of Membership Privacy in Deep Learning
- Title(参考訳): ディープラーニングにおけるメンバーシッププライバシのダイナミクスの評価
- Authors: Yuetian Chen, Zhiqi Wang, Nathalie Baracaldo, Swanand Ravindra Kadhe, Lei Yu,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、ディープラーニングにおけるトレーニングデータのプライバシーに重大な脅威をもたらす。
本稿では,個々のサンプルレベルでのプライバシー漏洩ダイナミクスの分離と定量化のための動的解析フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.899573367308506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) pose a critical threat to the privacy of training data in deep learning. Despite significant progress in attack methodologies, our understanding of when and how models encode membership information during training remains limited. This paper presents a dynamic analytical framework for dissecting and quantifying privacy leakage dynamics at the individual sample level. By tracking per-sample vulnerabilities on an FPR-TPR plane throughout training, our framework systematically measures how factors such as dataset complexity, model architecture, and optimizer choice influence the rate and severity at which samples become vulnerable. Crucially, we discover a robust correlation between a sample's intrinsic learning difficulty, and find that the privacy risk of samples highly vulnerable in the final trained model is largely determined early during training. Our results thus provide a deeper understanding of how privacy risks dynamically emerge during training, laying the groundwork for proactive, privacy-aware model training strategies.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、ディープラーニングにおけるトレーニングデータのプライバシーに重大な脅威をもたらす。
攻撃手法の進歩にもかかわらず、トレーニング中のメンバーシップ情報をいつ、どのようにエンコードするかの理解は依然として限られている。
本稿では,個々のサンプルレベルでのプライバシー漏洩ダイナミクスの分離と定量化のための動的解析フレームワークを提案する。
トレーニング中、FPR-TPRプレーン上でサンプルごとの脆弱性を追跡することで、データセットの複雑さ、モデルアーキテクチャ、オプティマイザ選択などの要因が、サンプルが脆弱になる頻度と重症度にどのように影響するかを系統的に測定する。
重要なことは、サンプルの本質的な学習難易度との間には、頑健な相関関係が発見され、最終訓練モデルにおいて非常に脆弱なサンプルのプライバシーリスクは、トレーニングの初期段階に大きく決定される。
その結果、トレーニング中にプライバシリスクが動的に出現する方法についてより深く理解し、プロアクティブでプライバシを意識したモデルトレーニング戦略の基盤となるものとなった。
関連論文リスト
- When Better Features Mean Greater Risks: The Performance-Privacy Trade-Off in Contrastive Learning [9.660010886245155]
本稿では,エンコーダモデルを対象としたMIA攻撃によるプライバシの脅威を系統的に検討する。
本稿では,Lp-Norm Likelihood Attack (LpLA) と呼ばれる特徴ベクトルのpノルムに基づく新しいメンバシップ推論攻撃法を提案する。
論文 参考訳(メタデータ) (2025-06-06T05:03:29Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning [9.334117596250007]
メンバーシップ推論攻撃(MIA)は、機械学習モデルの実用的なプライバシをテストするために使用される。
固定された偽陽性率の攻撃的優位性として測定された非DPモデルの脆弱性は、単純な電力法則に従って減少することを示す。
論文 参考訳(メタデータ) (2024-02-07T14:23:01Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Leveraging Adversarial Examples to Quantify Membership Information
Leakage [30.55736840515317]
パターン認識モデルにおけるメンバシップ推論の問題に対処する新しいアプローチを開発する。
この量はトレーニングデータに属する可能性を反映していると我々は主張する。
我々の手法は、最先端の戦略に匹敵する、あるいは上回る性能を発揮する。
論文 参考訳(メタデータ) (2022-03-17T19:09:38Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。