論文の概要: Membership Inference Attacks as Privacy Tools: Reliability, Disparity and Ensemble
- arxiv url: http://arxiv.org/abs/2506.13972v2
- Date: Thu, 03 Jul 2025 17:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:14.672304
- Title: Membership Inference Attacks as Privacy Tools: Reliability, Disparity and Ensemble
- Title(参考訳): プライバシツールとしてのメンバシップ推論攻撃 - 信頼性、格差、アンサンブル
- Authors: Zhiqi Wang, Chengyu Zhang, Yuetian Chen, Nathalie Baracaldo, Swanand Kadhe, Lei Yu,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、機械学習モデルのプライバシに重大な脅威をもたらす。
MIA以前の研究は、主にAUC、精度、TPR@low FPRなどのパフォーマンス指標に焦点を当てていた。
これらの格差は、プライバシー評価ツールとしてのMIAの信頼性と完全性に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 12.451650669707167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) pose a significant threat to the privacy of machine learning models and are widely used as tools for privacy assessment, auditing, and machine unlearning. While prior MIA research has primarily focused on performance metrics such as AUC, accuracy, and TPR@low FPR - either by developing new methods to enhance these metrics or using them to evaluate privacy solutions - we found that it overlooks the disparities among different attacks. These disparities, both between distinct attack methods and between multiple instantiations of the same method, have crucial implications for the reliability and completeness of MIAs as privacy evaluation tools. In this paper, we systematically investigate these disparities through a novel framework based on coverage and stability analysis. Extensive experiments reveal significant disparities in MIAs, their potential causes, and their broader implications for privacy evaluation. To address these challenges, we propose an ensemble framework with three distinct strategies to harness the strengths of state-of-the-art MIAs while accounting for their disparities. This framework not only enables the construction of more powerful attacks but also provides a more robust and comprehensive methodology for privacy evaluation.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、マシンラーニングモデルのプライバシに対して重大な脅威となり、プライバシアセスメント、監査、マシンラーニングアンラーニングのツールとして広く使用されている。
以前のMIA調査では、主にAUC、精度、TPR@low FPRといったパフォーマンス指標(これらのメトリクスを強化する新しい方法を開発するか、プライバシソリューションを評価するためにそれを使う)に焦点を当てていましたが、異なるアタックの相違を見落としていることに気付きました。
これらの差異は、異なる攻撃方法と同一手法の複数のインスタンス化の間にあり、プライバシー評価ツールとしてのMIAの信頼性と完全性に重要な意味を持つ。
本稿では,これらの格差を,カバレッジと安定性分析に基づく新しい枠組みにより体系的に検討する。
広範囲にわたる実験により、MIA、その潜在的な原因、およびプライバシー評価に対するより広範な影響が明らかとなった。
これらの課題に対処するため,現状のMIAの強みを活かし,その相違を考慮しつつ,三つの異なる戦略を持つアンサンブル・フレームワークを提案する。
このフレームワークは、より強力な攻撃の構築を可能にするだけでなく、プライバシー評価のためのより堅牢で包括的な方法論を提供する。
関連論文リスト
- Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Do Fairness Interventions Come at the Cost of Privacy: Evaluations for Binary Classifiers [17.243744418309593]
我々は、メンバーシップ推論攻撃(MIA)と属性推論攻撃(AIA)により、公平性向上したバイナリ分類器のプライバシーリスクを評価する。
公正なモデルと偏見のあるモデルの間の予測不一致を利用して、MIAとAIAの両方に対する高度な攻撃結果をもたらす潜在的な脅威メカニズムを明らかにする。
本研究は、フェアネス研究における未調査のプライバシー上の脅威を明らかにし、モデル展開前に潜在的なセキュリティ脆弱性を徹底的に評価することを提唱する。
論文 参考訳(メタデータ) (2025-03-08T10:21:21Z) - How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference [13.453033795109155]
協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - MIBench: A Comprehensive Framework for Benchmarking Model Inversion Attack and Defense [42.56467639172508]
Model Inversion (MI)攻撃は、ターゲットモデルの出力情報を活用して、プライバシに敏感なトレーニングデータを再構築することを目的としている。
我々は、モデル反転攻撃と防御の体系的評価のためのMIBenchという最初の実用的なベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-07T16:13:49Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Privacy Threats in Stable Diffusion Models [0.7366405857677227]
本稿では,安定拡散コンピュータビジョンモデルを対象としたMIA(Message Inference attack)の新たなアプローチを提案する。
MIAは、モデルのトレーニングデータに関する機密情報を抽出することを目的としており、重要なプライバシー上の懸念を呈している。
被害者モデルに繰り返し問い合わせるだけでよいブラックボックスMIAを考案する。
論文 参考訳(メタデータ) (2023-11-15T20:31:40Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - On the Effectiveness of Regularization Against Membership Inference
Attacks [26.137849584503222]
ディープラーニングモデルは、トレーニングデータに関する情報を漏らすと、しばしばプライバシー上の懸念を引き起こす。
これにより、モデルのトレーニングセットにあるデータポイントがメンバーシップ推論アタック(MIA)によって決定される。
多くの正規化機構が存在するが、MIAに対する効果は体系的に研究されていない。
論文 参考訳(メタデータ) (2020-06-09T15:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。